PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39

Fireblade
2013-03-05, 09:58:03
Der ganze Mediakram der Xbox wird bestimmt gut werden - in Amerika.
Der Rest der Welt kann wahrscheinlich 75% der Apps wieder nicht benutzen.

Microsoft wird sich hächstwahscheinlich auf USA/Kanada + bißchen England konzentrieren, so wie diese Gen auch schon. Japan werden sie aufgeben.
Und auf den Konferenzen darf man sich dann die ganzen tollen Multimedia Möglichkeiten angucken, die in Europa niemals angeboten werden ;)

StefanV
2013-03-05, 10:22:59
Japan + Europa werden sie aufgeben.
So passt es besser...

Letztendlich muss ich auch sagen, dass für mich die XBox360 ein Fehlkauf gewesen ist - eine Playstation 3 wäre für mich die bessere Konsole gewesen, da es dort mehr Exklusivtitel gibt, die mich interessiert hätten...

Auf der PC-Box gibts da so gut wie nix.

Silentbob
2013-03-05, 11:00:33
So passt es besser...

Letztendlich muss ich auch sagen, dass für mich die XBox360 ein Fehlkauf gewesen ist - eine Playstation 3 wäre für mich die bessere Konsole gewesen, da es dort mehr Exklusivtitel gibt, die mich interessiert hätten...

Auf der PC-Box gibts da so gut wie nix.


Na es gibt doch HALO und Gears of War und jo sonst nix :D

Watson007
2013-03-05, 11:02:00
So passt es besser...

Letztendlich muss ich auch sagen, dass für mich die XBox360 ein Fehlkauf gewesen ist - eine Playstation 3 wäre für mich die bessere Konsole gewesen, da es dort mehr Exklusivtitel gibt, die mich interessiert hätten...

Auf der PC-Box gibts da so gut wie nix.

na das ist ja nun nichts was man nicht ändern könnte. XBox verkaufen und PS3 kaufen, wenn nötig gebraucht ;)

Sven77
2013-03-05, 11:02:45
Forza noch was aber durch Gran Turismo 1:1 ersetzt wird (und vice versa).

na das ist ja nun nichts was man nicht ändern könnte. XBox verkaufen und PS3 kaufen, wenn nötig gebraucht ;)

Wenn man viele Spiele an seinen Account gebunden hat ist das nicht soo einfach..

tobor
2013-03-05, 11:07:54
Na es gibt doch HALO und Gears of War und jo sonst nix :D
Sind schon wesentlich mehr als das:
http://en.wikipedia.org/wiki/List_of_video_game_exclusives_%28seventh_generation%29#Microsoft_Xbox_360

Matrix316
2013-03-05, 12:13:30
Schöner Artikel gefunden auf www.kaliban.de:
http://techcrunch.com/2013/02/23/what-games-are-consoles-are-sinking-get-to-the-lifeboats/

There is something fundamentally wrong with the modern game console. It’s not that one competitor is better than another, or that one has a better suite of features or platform story than the others. It’s that the game console has gone from being an extremely simple device whose purpose was clear, to a mangled behemoth of a machine trying to impose a grand vision on an audience to retain its position. Lacking another Wii controller-style moment of genius, consoles have diverged in 100 different directions from video to social networking, browsing the Internet or instant messaging, and so have become crufty and expensive hunks of junk.

You might think that the Ps4 seems like the SS Sony striking an iceberg, but the state of the console industry is more like a reflection of the entire White Star fleet (the Titanic, Britannic and Olympic) rather than any one ship. The White Star vessels were lumbering expensive ships with too-small rudders, more luxuries than sense and not enough lifeboats. One sank in the North Atlantic, one was torpedoed and only one survived until it became uneconomical to run. Sony’s PS4 may well be the Titanic, but in that sense Nintendo’s Wii U is the Britannic, and that still doesn’t mean Microsoft’s Olympic is poised to take over the world. It’ll probably just run for a decreasing audience for a while until it too becomes uneconomical.


Hat er recht? Muss eine Videospielkonsole Netflix, Internet etc. pp können? Sind das überhaupt noch Konsolen oder eher gar verkappte HTPCs?

Iceman346
2013-03-05, 12:23:24
Ich halte das einfach für die logische Weiterentwicklung. Die Konsolen sind nunmal Computer, warum die vorhandene Flexibilität für sonstige Dienste nutzen? Ich für meinen Teil habe keinen Drang für jeden Einsatzzweck ein eigenes Gerät am Fernseher stehen zu haben.

Solange die Grundvoraussetzung, das Spiel reinlegen und los gehts, erfüllt bleiben nehme ich zusätzliche Nutzungsmöglichkeiten gerne mit.

Man sieht ja auch an modernen Fernsehern wohin die Reise geht, ich habe seit diesem WE einen neuen Fernseher bei mir stehen und der kann ebenfalls im Internet browsen, bietet Apps für Zattoo, Tagesschau und und und. Werde ich davon den Großteil wirklich brauchen? Wahrscheinlich nicht, aber die Option als solches ist nicht verkehrt.

Fireblade
2013-03-05, 12:23:55
Der soll ruhig weiter seine iphone Spiele entwickeln.
Ich kann das ganze "PC Gaming ist tot", "Konsolengaming ist tot", Handyspiele sind die Zukunft !!! nicht mehr hören.

Davon abgesehen wird eine Konsole nicht teurer, weil sie Netflix und Internet unterstützt ..

Wenns nach dem geht, kosten in Zukunft alle Spiele 5$ und haben den Tiefgang von Angry Birds.

Watson007
2013-03-05, 12:28:01
also ich weiss nicht. Als Option schadet es sicher nicht, aber man sollte auch bedenken dass die Geräte teurer werden je mehr Lizenzen sie nutzen.

Eine Spielkonsole kann dagegen nicht mit einem Videoplayer in einem TV mithalten, da sie lauter ist und mehr Strom verbraucht.

Ich finde den Videoplayer in der PS3 gut, aber wenn mein nächster TV das nativ unterstützt fände ich bei der nächsten Playstation eine billigere Variante ohne die Nutzung der ganzen Lizenzen besser.

Nintendo dagegen spart bei Lizenzen und Anschlüssen wo es nur geht, aber billiger sind sie dadurch nicht geworden....

aber es geht auch um Macht und Einfluss, daher denke ich werden Spielekonsolen weiterhin soviele Möglichkeiten bieten. Zumindest bei Sony und Microsoft.

Botcruscher
2013-03-05, 12:40:09
Hat er recht? Muss eine Videospielkonsole Netflix, Internet etc. pp können? Sind das überhaupt noch Konsolen oder eher gar verkappte HTPCs?
Ein zugenagelter DAU-PC. Dafür kostet Inet bis Social eh nix. Das ist ein bisschen Software. Hardware kostet Geld.
PS: Und was will er denn mit der WiiU?! Das Ding versagt an seiner Unfähigkeit für einfach Ports. Leistung am Arsch... MS/Sony machen mit 0815 PC-Hardware alles richtig. Genormte Formate und einfach Programmierung.

Sven77
2013-03-05, 12:41:25
Solange der Fokus auf Gaming liegt kann die Konsole von mir aus auch den Abwasch machen.. ist eben ein Bonus.

Matrix316
2013-03-05, 12:58:18
Wobei mir nicht gefällt, dass anscheinend Sony und Microsoft sehr ähnliche Hardware einsetzen. Wozu überhaupt noch zwei Konsolen die zu 99% eh die gleichen Games haben? Früher war ein Sega Mega Drive anders als ein Super Nintendo oder ein N64 hatte ganz andere Spiele als die Playstation. Aber dann kam die blöde X-Box...;)

Mr.Freemind
2013-03-05, 13:00:28
Also ich nutze auf meiner Box diverse Apps (LoveFilm, NHL Gamecenter) und sie stellen für mich einen immensen Mehrwert dar. Klar, der Fokus sollte auf dem Gaming liegen, wenn aber dabei noch der ein oder andere mediale "Bonus" zur Verfügung gestellt wird ist das imo sehr begrüßenswert.

Crazy_Bon
2013-03-05, 13:05:27
Nintendo dagegen spart bei Lizenzen und Anschlüssen wo es nur geht, aber billiger sind sie dadurch nicht geworden....
Nintendo spart zu sehr, die neue Wii mini ist nun ein Toplader, sie soll ja nicht einmal 480p mehr können. Onlinefunktionen wurden auch gestrichen, ohne WLan-Antenne und nicht einmal ein LAN-Adapter bringt was, sowie ohne SD-Slot. Immerhin ist noch ein USB-Port vorhanden, vielleicht taugt sie den Homebrewusern noch was. ;)
Was ich eigentlich sagen wollte, die Wii liest ohne Homebrew nicht einmal Film-DVDs und ich wette, daß sie nicht einmal Audio-CDs abspielt. Heutzutage sind solche Unterstützungen Kleinigkeiten, und für den Preis sind ihre Konsolen völlig überzogen.

Iceman346
2013-03-05, 13:06:47
Wobei mir nicht gefällt, dass anscheinend Sony und Microsoft sehr ähnliche Hardware einsetzen. Wozu überhaupt noch zwei Konsolen die zu 99% eh die gleichen Games haben? Früher war ein Sega Mega Drive anders als ein Super Nintendo oder ein N64 hatte ganz andere Spiele als die Playstation. Aber dann kam die blöde X-Box...;)

Die Zeiten der Exklusivtitel sind sowieso vorbei. Da wird es noch ein paar Prestigetitel geben die von Sony/Microsoft massiv finanziert werden (und bei Misserfolgen ganz schnell abgeschossen werden), aber bei Budgets im hohen zweistelligen bis niedrigen dreistelligen Millionenbeträgen ist es einfach sicherer für die Macher wenn sie mehr Kunden haben.

Die ähnliche Hardware wird da einen großen Bonus durch die leichte Portierbarkeit bieten, Spiele die sich qualitativ massiv unterscheiden, wie das bei dieser Generation teilweise der Fall war, werden dann hoffentlich der Vergangenheit angehören (es sei denn die 720 ist wirklich merkbar schwächer als die PS4).

Ganz ehrlich gesagt: In meiner Idealwelt gäbe es eine technisch ordentliche Konsole und dafür würden alle Spieleentwickler entwickeln. Oder einfach gleich auf dem PC. Ich hasse es für Exklusivtitel Hardware zu kaufen die mich ansonsten kaum interessiert. Aktuell würde ich beispielsweise sehr gerne ZombieU spielen, aber die WiiU ist ansonsten eine völlig uninteressante Konsole.

N0Thing
2013-03-05, 13:07:02
also ich weiss nicht. Als Option schadet es sicher nicht, aber man sollte auch bedenken dass die Geräte teurer werden je mehr Lizenzen sie nutzen.

Die Kosten für Videolizenzen trägt der Kunde selber, wenn er einen Film über Netflix oder Lovefilm ausleiht/ansieht. Dadurch werden die Konsolen nicht teurer.

Exxtreme
2013-03-05, 13:09:12
Wobei mir nicht gefällt, dass anscheinend Sony und Microsoft sehr ähnliche Hardware einsetzen. Wozu überhaupt noch zwei Konsolen die zu 99% eh die gleichen Games haben? Früher war ein Sega Mega Drive anders als ein Super Nintendo oder ein N64 hatte ganz andere Spiele als die Playstation. Aber dann kam die blöde X-Box...;)
Ich sehe das jetzt nicht als Nachteil an. Wenn 99% der Games gleich sind dann reicht nur eine Kiste anstatt 2. Gewinnen dürfte eigentlich nur die Konsole mit mehr interessanten Exklusivspielen. Und da sehe ich Sony deutlich vorne.

mironicus
2013-03-05, 13:23:51
Ich frage mich, ob die neuen Konsolen nicht schon einen kompletten PC ersetzen könnten. Eine virtuelle Maschine starten und schon läuft Windows oder Linux drauf. Läuft auf der Xbox 720 nicht bereits Windows 8 im Hintergrund? Was will man denn mehr? 8 Kerne, 8 GB RAM, USB 3.0, BluRay, Mittelklasse-GPU. HTPCs können sie bereits ersetzen, fehlt nur noch der Rest. :D

Stellt euch mal vor, vielleicht haben die neuen Konsolen nur einen geringen Idle-Verbrauch von 10-20 Watt? Das wäre doch interessant. :)

robbitop
2013-03-05, 13:36:10
Wobei mir nicht gefällt, dass anscheinend Sony und Microsoft sehr ähnliche Hardware einsetzen. Wozu überhaupt noch zwei Konsolen die zu 99% eh die gleichen Games haben? Früher war ein Sega Mega Drive anders als ein Super Nintendo oder ein N64 hatte ganz andere Spiele als die Playstation. Aber dann kam die blöde X-Box...;)
Die Hardware sagt ja noch nichts über die Spiele aus. Der Content ist abhängig von den Artists - also von den Spielestudios.

Dass die HW ähnlicher wird hat Vorteile: so kann man Entwicklungskosten sparen und diese in den Content stecken.

Spiele sind heute so unglaublich aufwändig geworden und enthalten ein vielfaches an Kontent verglichen mit den PS2 Zeiten, so dass man überall schauen muss, dass die Kosten wieder hineinkommen. Deshalb auch Multi-Titel ohne Ende.

RLZ
2013-03-05, 13:47:11
Die Zeiten der Exklusivtitel sind sowieso vorbei.
Da bin ich anderer Meinung. Innovative Spiele findet man inzwischen vor allem im Indie Bereich. Diese Firmen kann man mit einem relativ kleinem Budget an sich binden. Sony hat es mit ThatGameCompany doch erfolgreich vorgemacht.

Iceman346
2013-03-05, 13:55:21
Na jo, wer Indiespiele will muss eigentlich am PC spielen. Da gibts die größte Auswahl. Und für solche Titel kauft sich auch keiner eine Konsole, das sind keine Systemseller. Ich mag ja durchaus Indiespiele (von den 400+ Titeln die ich in Steam hab sind sicherlich 1/3 Indiespiele) aber nen regelmäßiger Blockbuster muss halt auch mal dazwischen sein.

Für mich muss ich sagen, dass ich mit dem Zeugs was thatgamecompany macht absolut nichts anfangen kann. Ist mir zu sehr High Concept Kunstblubb, gibt mir nichts.

RLZ
2013-03-05, 13:59:44
Für mich muss ich sagen, dass ich mit dem Zeugs was thatgamecompany macht absolut nichts anfangen kann. Ist mir zu sehr High Concept Kunstblubb, gibt mir nichts.
Das ist wohl das Problem. ;)
Imo sind das schon Systemseller und Flower war damals das erste Spiel, was ich mir für die PS3 gekauft hab.

TheCounter
2013-03-05, 14:16:25
Läuft auf der Xbox 720 nicht bereits Windows 8 im Hintergrund?

Wahrscheinlich ein stark abgespecktes OS das auf dem W8 Kernel basiert. Normale Programme würden darauf nicht laufen ;)

Silentbob
2013-03-05, 14:28:37
Sind schon wesentlich mehr als das:
http://en.wikipedia.org/wiki/List_of_video_game_exclusives_%28seventh_generation%29#Microsoft_Xbox_360


Brüller. 90% davon kann man in die Casual Ecke klatschen und der Rest naja...

Sven77
2013-03-05, 14:52:47
Brüller. 90% davon kann man in die Casual Ecke klatschen und der Rest naja...

Halo, GoW, Fable und Forza.. noch ein paar Nischentitel die aber aus Entwicklungsgruenden exklusiv geblieben sind.

dargo
2013-03-05, 14:58:59
weil der dafür viel zu langsam ist. bisher war das paradigma "alles wichtige in den vram laden und die graka ihr ding machen lassen". deswegen gibt es in der praxis kaum unterschiede ob die graka mit pci-e 4, 8 oder 16 angebunden ist.
sobald man aber das paradigma ändert und mit CPU und GPU dynamisch auf den selben datenstrukturen rumwerkt ohne viel exklusivität und rumkopiererei hat man sofort totale bottenecks.

Natürlich gibts Unterschiede zwischen PCIe 4x und 16x. Die Grafikleistung ansich muss aber stimmen. Wenn die zu klein ausfällt wird man logischerweise kaum was feststellen. Ich finde das ganze Thema sowieso ziemlich überbewertet. Der PCIe-Bus ist nur ein Teil eines gesamten Systems. Wenn das so ein riesen Flaschenhals ist müssten wir in Spielen eine Diashow haben. Und genau das Gegenteil ist der Fall. Man hat mit deutlich stärkerer Hardware als bei Konsolen auch deutlich mehr Frames bei höherer Auflösung und mehr Details.

Das soll jetzt nicht heißen, dass mit wesentlich mehr Bandbreite beim PCIe-Bus es nicht besser wäre. Die Frage ist bloß in welchem Verhältnis hier die Kosten zum Nutzen stehen.

Tesseract
2013-03-05, 15:15:32
Natürlich gibts Unterschiede zwischen PCIe 4x und 16x.
ein in der regel niedriger einstelliger prozentbereich bei 400% bandbreitenunterschied ist fast nix.

Wenn das so ein riesen Flaschenhals ist müssten wir in Spielen eine Diashow haben. Und genau das Gegenteil ist der Fall.
weil man den bus absichtlich so wenig wie möglich verwendet - habe ich doch geschrieben. in der regel lädt man zum start des spiels shader, vertexbuffer und so viele texturen wie möglich hoch bevor man überhaupt zum rendern beginnt und schickt wärend dem rendern nur noch sehr kontrolliert und spärlich nutzdaten drüber. ein hin- und hertransfer von daten in verschiedenen stufen der renderpipeline ist z.B. vollkommen undenkbar wenn das ganze auch nur irgendwie performant sein soll, deswegen macht man sowas bisher ganz einfach nicht.

dargo
2013-03-05, 15:28:47
weil man den bus absichtlich so wenig wie möglich verwendet - habe ich doch geschrieben. in der regel lädt man zum start des spiels shader, vertexbuffer und so viele texturen wie möglich hoch bevor man überhaupt zum rendern beginnt und schickt wärend dem rendern nur noch sehr kontrolliert und spärlich nutzdaten drüber. ein hin- und hertransfer von daten in verschiedenen stufen der renderpipeline ist z.B. vollkommen undenkbar wenn das ganze auch nur irgendwie performant sein soll, deswegen macht man sowas bisher ganz einfach nicht.
Also gibt es eine brauchbare Lösung. Und genau deshalb finde ich das ganze Thema überbewertet. Wenn in einem System irgendwo ein großer Flaschenhals entsteht dann gibt es Lösungen den umzugehen. Oder man sucht nach Lösungen.

Es geht nicht um den Durchsatz sondern die Latenz. Round-Trip von der CPU zur GPU und zurück ist wie Erde<->Mond in CPU-Zeit.
Und das kann man über größere Caches nicht kompensieren?

Locuza
2013-03-05, 15:47:32
Also gibt es eine brauchbare Lösung. Und genau deshalb finde ich das ganze Thema überbewertet. Wenn in einem System irgendwo ein großer Flaschenhals entsteht dann gibt es Lösungen den umzugehen. Oder man sucht nach Lösungen.


Und das kann man über größere Caches nicht kompensieren?
Ja es gibt eine brauchbare Lösung und die nennt sich HSA, APU, GPU und CPU auf einem Die ;)
Oder willst du den L2-Cache auf deinem Mobo haben und die FPU auch, so klassisch wie früher?
Mit relativ horrenden Latenzen im Vergleich zu jetzt.

Es bringen größere Caches ja auch nichts, es MÜSSEN einfach gewisse Daten von der CPU zur GPU transferiert werden und andersherum.
Die einzige Lösung wäre ja diesen Verkehr immer weiter zu verkleinern und die GPU immer unabhängiger zu gestalten.
Was ja immer nur eine bedingte Lösung sein kann, bei zwei Processing-Units von denen man vollen Nutzen haben will und wo das Zusammenspiel von beiden Stärken bei gewissen Algorithmen von großem Vorteil ist.
Über PCIE ist man dort bisher limitiert.

StefanV
2013-03-05, 15:48:46
Und das kann man über größere Caches nicht kompensieren?
Nein, weil man einfach zu viele Daten transferieren müsste. Was willst da für Caches rein pflanzen?! 32MiB pro CU??

RLZ
2013-03-05, 16:09:19
Im Grunde werden ja 2 Lösungswege angestrebt:
- Mehr GPU in die CPU (AMD und Intel)
- Mehr CPU in die GPU (Nvidia mit ARM Cores in Maxwell)

Man kann jetzt natürlich drüber streiten, ob Nvidia das vielleicht macht, weil ihnen der andere Weg versperrt bleibt...

del_4901
2013-03-05, 16:09:59
Und das kann man über größere Caches nicht kompensieren?
Nein, man muss die Caches auch coherent halten und das aendert nichts an der Round Trip Zeit. Da hilft auch ein grosser Cache nichts, wenn das langsamste Glied in der Kette immernoch der PCIe ist.

Iruwen
2013-03-05, 16:22:38
Bei ähnlicher Leistung kauf ich die Konsole die leiser ist und mehr Formate abspielt, MKV z.B. Zum Spielen benutz ich die PS3 praktisch gar nicht, eher meine Freundin ab und zu mal.

dargo
2013-03-05, 16:22:40
Männers... ich verstehe schon eure Argumente. Man muss aber auch die momentane Situation sehen. Was in ~10-20 Jahren kommt weiß noch keiner so recht. Und es wird sicherlich das kommen was am meisten Sinn macht. :)

Ich sehe die momentane Lage. Und da sieht man selbst bei PCIe 4x vs. PCIe 16x nur leichte Vorteile für Letzteres. Man umgeht also den Flaschenhals PCIe auf andere Weise. Ansonsten hätte man hier viel höhere Performanceunterschiede messen können. Kommt die Zeit wo der PCIe-Bus ein unumgängliches Hindernis ist kommen halt andere Lösungen.

del_4901
2013-03-05, 16:32:55
Ich sehe die momentane Lage. Und da sieht man selbst bei PCIe 4x vs. PCIe 16x nur leichte Vorteile für Letzteres. Man umgeht also den Flaschenhals PCIe auf andere Weise. Ansonsten hätte man hier viel höhere Performanceunterschiede messen können. Kommt die Zeit wo der PCIe-Bus ein unumgängliches Hindernis ist kommen halt andere Lösungen.
(1) PCIe 4x vs 16x: das ist wieder nur die Bandbreite die sich damit aendert, aber nicht die Round Trip Time.
(2) Ja, man verbietet heutzutage einfach den Readback und schraenkt sich damit in der Wahl der moeglichen Algorithmen ein. Das bezahlt man dann aber mit weniger Effizienz die man (noch) mit mehr Rohpower niederknueppelt. Das aendert sich aber an dem Punkt wo es unwirtschaftlich wird Chip wie den der Titan zu fertigen oder mit Strom zu versorgen.

bloub
2013-03-05, 16:33:00
Die Kosten für Videolizenzen trägt der Kunde selber, wenn er einen Film über Netflix oder Lovefilm ausleiht/ansieht. Dadurch werden die Konsolen nicht teurer.

die kosten für die benutzung diverser codecs (h.264 zum beispiel) wird die konsolen definitiv verteuern ;).

Tesseract
2013-03-05, 16:33:40
Also gibt es eine brauchbare Lösung.
nur wenn du unter "brauchbar" verstehst im fortschritt hängen zu bleiben.
wenn du z.B. eine dynamisch manipulierbare 3D-welt haben willst wo geometrie und spielmechanik hand in hand gehen bist du mit der klassischen zweiteilung wahrscheinlich schnell am ende.

ja, heute limitiert pci-e nicht, heute gibt es solche spiele aber auch ganz einfach nicht weil es eben nicht geht, auch nicht wenn du 10-fach mehr tessellierst, 100 mal größere texturen verwendest usw. that's the point.

robbitop
2013-03-05, 16:37:17
Und wenn man eine APU dafür nutzen würde, Gamephysik zu nutzen und die GPU auf dem PCIe weiterhin um 3D zu rendern? Wäre das eine Lösung?
Eine High End GPU ist in einer APU ja nicht mehr machbar. Da sind ja bereits viele Transistoren in die CPU investiert.

Coda
2013-03-05, 16:37:56
Und das kann man über größere Caches nicht kompensieren?
Nein. Die führen wenn überhaupt nur noch zu mehr Latenz.

Locuza
2013-03-05, 16:37:58
Männers... ich verstehe schon eure Argumente. Man muss aber auch die momentane Situation sehen. Was in ~10-20 Jahren kommt weiß noch keiner so recht. Und es wird sicherlich das kommen was am meisten Sinn macht. :)

Ich sehe die momentane Lage. Und da sieht man selbst bei PCIe 4x vs. PCIe 16x nur leichte Vorteile für Letzteres. Man umgeht also den Flaschenhals PCIe auf andere Weise. Ansonsten hätte man hier viel höhere Performanceunterschiede messen können. Kommt die Zeit wo der PCIe-Bus ein unumgängliches Hindernis ist kommen halt andere Lösungen.
Andererseits ist diese Erkenntnis überhaupt nichts neues für Programmierer.
Die ganzen bisherigen Konzepte ziehen diesen Flaschenhals ja schon in ihre Rechnung mit ein und auch ältere Rechner.
Wundern tut es mich aber auch schon, dass bei bisherigen PCIe-Tests durch die Bank sich kaum Unterschiede ergeben.
Selten gibt es mal 10% Unterschied.

Aber es gibt auch sehr interessante Tests, die den Flaschenhals sehr schön verdeutlichen:
http://synergy.cs.vt.edu/pubs/papers/daga-saahpc11-apu-efficacy.pdf

Die Lösung sind "APUs" und viel Bandbreite, APUs und HMC lösen ja das Problem.
Bloß leider erschafft dies ja ein völliges neues Programmierparadigma, stellt alles keinen kleinen Umbruch da und es gibt ja noch Milliarden PCs von der alten Generation die man nicht einfach ignorieren könnte.
Die Fertigungsschritte sind auch nicht so klein, als dass man es sich locker leisten könnte APUs mit dicker Processing-Power zu bauen.

Sieht so aus, als wären das noch etliche Jahre, bis man auf das klassische System weitgehend verzichten kann.

dildo4u
2013-03-05, 17:01:11
Xbox 3 Devkit?


http://i.picpar.com/Mnm.jpg

https://twitter.com/repi/status/306835055114866688

https://twitter.com/repi/status/308339620230356992

del_4901
2013-03-05, 17:04:25
Xbox 3 Devkit?

Ihr alten Rumour Mongers. Johan hat doch schon geschrieben das es dabei um einen PC handelt. Und Ihr glaubt doch nicht wirklich das Johan das so einfach auf Twitter posten wuerde? Mal ganz abgesehen davon das dort Ramsockel zu sehen sind.

Locuza
2013-03-05, 17:07:19
Kaveri it is.

Gipsel
2013-03-05, 17:15:44
Kaveri it is.
Mit dem Notebook-Kühler eher eine Kabini Referenz-Plattform. Schau doch mal, wie mickrig das Package ist, welches der Kühler kühlt (das ist unter dem Kupferblock, der mit Heatpipes am Lüfter/Kühler hängt).
Edit: Damit steht aber Single Channel wohl fest (oder es gibt noch eine größere Plattform für essential Desktops).

Locuza
2013-03-05, 17:20:08
Johan hat getwittert das die APU auf jeden Fall den diskreten GPUs wohl noch mehr das Wasser abgraben wird.
Klingt schon einmal deutlich mehr nach Kaveri als einen Kabini.

Vom p3D gibt es auch ein Bild von einem angeblichen Llano Dev-Kit:
http://www.abload.de/img/amd_event_03_fullcaxzd.jpg

Das war wohl auch viele Monate vor dem Launch im Umlauf.

Deshalb würde ich gerne zu Kaveri tendieren.
Kabini kann man ja nicht ausschließen, aber den sehen wir eh "bald" auch als fertiges Produkt.

Gipsel
2013-03-05, 17:41:06
Vom p3D gibt es auch ein Bild von einem angeblichen Llano Dev-Kit:
http://www.abload.de/img/amd_event_03_fullcaxzd.jpgDa vermisse ich schmerzlich die Speicherslots (auf der Rückseite?). Dafür hat das Teil 2 PCIe Slots, einer sogar x16. Das fehlt bei dem neueren Bild (hat nur einen kleinen x1 Slot). Nur ein kleiner PCI-Express Slot würde eher zu Kabini passen (hat nur 4 Lanes, wovon wahrscheinlich ein oder zwei noch für irgendwas auf dem Board benutzt werden), genau wie der einzelne Speicherslot (Kaveri kann doch bestimmt dual Channel). Außerdem, soll Kaveri wie Kabini ein SoC werden? Weil auf dem Bild da oben gibt es (im Gegensatz zum angeblichen Llano-Kit) auch keinen Chipsatz mehr.

Edit:
Und nochmal ergänzend dazu hier ein Bild des Llano-Kits aus einem anderen Winkel:

http://images.anandtech.com/doci/3980/Llano2.jpg

Da ist deutlich der deutlich größere Sockel zu sehen. Bei dem neuen Bild sieht das sehr sehr stark nach einem deutlich kleineren und direkt aufgelöteten BGA-Package aus. Da ragt zumindest nichts unter dem kleinen Kupferblock hervor.

dargo
2013-03-05, 17:45:27
(1) PCIe 4x vs 16x: das ist wieder nur die Bandbreite die sich damit aendert, aber nicht die Round Trip Time.
(2) Ja, man verbietet heutzutage einfach den Readback und schraenkt sich damit in der Wahl der moeglichen Algorithmen ein. Das bezahlt man dann aber mit weniger Effizienz die man (noch) mit mehr Rohpower niederknueppelt. Das aendert sich aber an dem Punkt wo es unwirtschaftlich wird Chip wie den der Titan zu fertigen oder mit Strom zu versorgen.
Eine Sache würde mich noch interessieren. Könnte man nicht zukünftig noch mehr Sachen von der GPU berechnen lassen um den Datenverkehr zwischen CPU/GPU zu minimieren?

del_4901
2013-03-05, 17:48:41
Eine Sache würde mich noch interessieren. Könnte man nicht zukünftig noch mehr Sachen von der GPU berechnen lassen um den Datenverkehr zwischen CPU/GPU zu minimieren? Ja, in einem gewissen Maße ist das schon moeglich, aber irgendwo ist eine GPU eben auch eine GPU und eine CPU eine CPU. Das ist ja der Grund warum man beide zusammenfuehren moechte, und nicht eines von beiden abschaffen.

Botcruscher
2013-03-05, 17:52:25
Vom Kühler würde ich nicht auf die Größe der CPU schlissen wollen. Imo aber seltsames Ding. Links noch mal VGA +USB...

dargo
2013-03-05, 17:53:52
Ja, in einem gewissen Maße ist das schon moeglich, aber irgendwo ist eine GPU eben auch eine GPU und eine CPU eine CPU. Das ist ja der Grund warum man beide zusammenfuehren moechte, und nicht eines von beiden abschaffen.
Verstehe... ich hätte auch nichts dagegen eine APU in einem Desktop-PC zu haben. Aber wer baut schon bsw. eine HD7970 und einen Haswell Vierkerner @APU? :( Ich bin sowieso gespannt wo die magische Grenze bei der Die-Fläche @APU liegt. Ob sich da in Zukunft einer traut Richtung ~600mm² zu gehen?

Botcruscher
2013-03-05, 17:55:15
Wozu sollte man das? Erst mal muss eh die Bandbreite stimmen.

Coda
2013-03-05, 17:55:23
Xbox 3 Devkit?


http://i.picpar.com/Mnm.jpg

https://twitter.com/repi/status/306835055114866688

https://twitter.com/repi/status/308339620230356992
1. Devkits sind zugenagelt, damit niemand was leakt. Glasscheibe ist irgendwie bissel blödsinnig dann.
2. Ein DICE-Angestellter postet das sicher nicht auf Twitter X-D

dildo4u
2013-03-05, 18:14:25
Für was dann das Devkit?Normal dürfte man das Game ja nich auf APU's auslegen können,wenn 90% eine klassische GPU+CPU Kombo haben.

Windi
2013-03-05, 18:20:10
Kann man jetzt nicht für die Übergangszeit den onboard Grafikchip als Coprozessor benutzen (für Physik ect.)
Die separate Grafikkarte würde dann weiterhin nur Grafik berechnen.
Und wenn man eine APU dafür nutzen würde, Gamephysik zu nutzen und die GPU auf dem PCIe weiterhin um 3D zu rendern? Wäre das eine Lösung?
Eine High End GPU ist in einer APU ja nicht mehr machbar. Da sind ja bereits viele Transistoren in die CPU investiert.
Ich wiederhole es einfach noch einmal, denn das würde mich mal wirklich interessieren.

Wenn in Zukunft bei den Konsolenspielen auf eine APU optimiert wird, dann muss für den PC ja irgendeine Lösung gefunden werden. Man kann natürlich auch alle betroffene Codezeilen neu programmieren.

Knuddelbearli
2013-03-05, 18:26:42
Für was dann das Devkit?Normal dürfte man das Game ja nich auf APU's auslegen können,wenn 90% eine klassische GPU+CPU Kombo haben.


beid er neuen Führung wäre ich mir da nicht mal so sicher eventuell gibt es paar spiele die extra auf apu optimiert wurden als Vorzeigetitel

Coda
2013-03-05, 18:32:33
Für was dann das Devkit?Normal dürfte man das Game ja nich auf APU's auslegen können,wenn 90% eine klassische GPU+CPU Kombo haben.
:facepalm:

Du willst da jetzt ernsthaft noch rumdiskutieren jetzt?

dildo4u
2013-03-05, 18:33:11
beid er neuen Führung wäre ich mir da nicht mal so sicher eventuell gibt es paar spiele die extra auf apu optimiert wurden als Vorzeigetitel
Der krüpplige APU Sockel vom AMD unterstützt meiner Meinung nach zu wenig Watt um ne ausreichen Starke APU für BF4 zu unterstützen.Kann natürlich sein das das für weit in die Zukunft gedacht ist wenn AMD auf 20nm umsteigt.Extra Game's für PC APU's kann sich AMD niemals leisten.

del_4901
2013-03-05, 18:35:42
Ich wiederhole es einfach noch einmal, denn das würde mich mal wirklich interessieren.

Wenn in Zukunft bei den Konsolenspielen auf eine APU optimiert wird, dann muss für den PC ja irgendeine Lösung gefunden werden. Man kann natürlich auch alle betroffene Codezeilen neu programmieren.
Ja sicher kann man die mit nutzen. Aber irgendwann ist die Leistung auch aufgebraucht. Und fuer mich stellt sich die Frage ob dedizierte GPU ueberhaupt notwendig ist, wenn die APU schon schnell genug ist.

Knuddelbearli
2013-03-05, 18:51:47
Der krüpplige APU Sockel vom AMD unterstützt meiner Meinung nach zu wenig Watt um ne ausreichen Starke APU für BF4 zu unterstützen.Kann natürlich sein das das für weit in die Zukunft gedacht ist wenn AMD auf 20nm umsteigt.Extra Game's für PC APU's kann sich AMD niemals leisten.


Wieso nicht? laut so manchen hier haben sie doch sogar Dirt Entwickler bestochen das sie Forward+ einbauen ^^


und APU Optimierungen wären weit weniger umfangreich

Coda
2013-03-05, 18:59:43
und APU Optimierungen wären weit weniger umfangreich
Das stimmt nicht.

Windi
2013-03-05, 19:10:59
Ja sicher kann man die mit nutzen. Aber irgendwann ist die Leitung auch aufgebraucht. Und fuer mich stellt sich die Frage ob dedizierte GPU ueberhaupt notwendig ist, wenn die APU schon schnell genug ist.
Danke für die Antwort.

Mir ging es ja eher um die Übergangszeit. Momentan hat man ja eher CPU + GPU.
Bis sich im PC-Bereich leistungsstarke APUs verbreitet haben wird es ja noch ein Weilchen dauern.

Locuza
2013-03-05, 19:24:13
Bis sich im PC-Bereich leistungsstarke APUs verbreitet haben wird es ja noch ein Weilchen dauern.
Das wird eine schreckliche Zeit. :(

Matrix316
2013-03-05, 20:08:00
Also ich will die Wahl haben im PC welche Grafikkarte, welcher RAM und wie viel und welche CPU und welche Soundkarte und welche Festplatte etc..

Ansonsten kann man sich gleich eine Konsole kaufen - oder eine Steambox. ;)

Dudikoff
2013-03-05, 21:26:18
Ich für meinen Teil bin vor allem sehr gespannt, was hinten herauskommt. Der ganze Techbabble (nicht abwertend gemeint) hab ich schon bei der XBOX360/PS3 verfolgt und selbst seinerzeit hauptsächlich gedacht, mit den mickerigen 512MB wird das nie niemals nix. Die Reaktionen waren generell recht verhalten. - Naja, sieben Jahre später haben die Studios mich deutlich eines besseren belehrt - Hut ab. Die HW ist eben immer noch nur ein Teil der Rechnung - Chuzpe, Cleverness, Psychologie, Artwork, Kreativität, geballter Wille und eine Prise Magie der ganze Rest. Mich fasziniert das ungemein, zugegebenermaßen sogar mehr als tolle AA-Modi und 128faches AF und bloße theoretische Leistung meines PC.

Wenn das alles auf die PS4 losgelassen wird, wird das ein feines Feuerwerk, wie wir es noch nicht erlebt haben. Man mag auf den Konsolen rumgehackt haben und noch rumhacken, weil sie den DX9-Level so elendig lang am Leben hielten, aber trotzdem hat sich die Spiellandschaft ziemlich nachhaltig verändert, sind die Welten unfassbar groß geworden. Man zieh sich heute mal Far Cry im Original rein, das nur knapp vor der XBOX360/PS3 erschienen ist. Es wirkt heute eher klaustrophobisch und beschämend detailarm. Die Konsolen haben den Markt explodieren und riesige Studios entstehen lassen, sie waren eben Fluch und Segen zugleich. Vor 2005 hab ich nicht mal davon geträumt, dass Designer ganze Städte bis ins kleinste Detail erschaffen, in den man sich stundenlang verirren kann. Und die hat man in diese lächerlichen 512MB "reingequetscht" (Streaming sei dank). Als ich von den 8GB DDR5 Speicher las, bin ich freilich fast vom Hocker gefallen. Und ich glaube, AMDs spezieller 8-Kerner, der zunächst ein bissel unspektakulär und konservativ daherkommt, wird uns hier auch die ein und andere Überraschung abringen. Die PS4 riecht nach einer Menge Potential und addiert man den oben genannten Rest dazu ...

:-)

Tesseract
2013-03-05, 23:32:28
Eine Sache würde mich noch interessieren. Könnte man nicht zukünftig noch mehr Sachen von der GPU berechnen lassen um den Datenverkehr zwischen CPU/GPU zu minimieren?

klar kann man. ein gutes beispiel dafür ist tessellation. die auf der GPU generierten vertices muss man weder alle im vram halten noch über pci-e schicken - nur die stützpunkte, displacementmaps oder was auch immer.

aber das geht eben nicht mit allem.

Hayab
2013-03-06, 03:36:15
Das wird eine schreckliche Zeit. :(

Warum?
APUs in PC Bereich sind noch total lahm und nicht aus den Grund weil die Intel, Amd, nv das nicht wollen, sonder weil sie es nicht koennen.
Die PS4 APU ist recht experimentell und es muessen viele Bauteile auf das Silizium gebracht werden, hoffentlich wiederholt sich das HD5870 Debakel nicht noch mal. Klar es ist kein Sprung wie damals von 80nm auf 40, aber der Markt ist auch viel groesser. Wenn die Konsole da ist, werden viele diese haben wollen. Ich glaube schon, dass es von der Yield-rate diesen neuen APUs abhaengen wird, wie schnell diese Konsolen nach EU kommen.
Sobald die Produktion wie geschmiert laeuft, werden in den Monaten danach auch entsprechend potente APUs fuer den PC errescheinen.

Gipsel
2013-03-06, 04:02:52
Was sollen denn diese Kassandra-Rufe? Eine APU mit 300mm² oder sogar noch ein wenig größer ist überhaupt kein Problem. Jaguar ist neu, und die GCN-Iteration wohl auch, aber ansonsten ist das auch nicht viel was Anderes als Bobcat, Llano oder Trinity und demnächst Kabini/Temash. Die Kerne existieren, die GPU auch, ebenso Northbridge und Speichercontroller und der Kleber dazwischen. "Experimentell" ist da ganz genau gar nichts.

Pentium M
2013-03-06, 04:12:29
Warum?
APUs in PC Bereich sind noch total lahm und nicht aus den Grund weil die Intel, Amd, nv das nicht wollen, sonder weil sie es nicht koennen.
Die PS4 APU ist recht experimentell und es muessen viele Bauteile auf das Silizium gebracht werden, hoffentlich wiederholt sich das HD5870 Debakel nicht noch mal. Klar es ist kein Sprung wie damals von 80nm auf 40, aber der Markt ist auch viel groesser. Wenn die Konsole da ist, werden viele diese haben wollen. Ich glaube schon, dass es von der Yield-rate diesen neuen APUs abhaengen wird, wie schnell diese Konsolen nach EU kommen.
Sobald die Produktion wie geschmiert laeuft, werden in den Monaten danach auch entsprechend potente APUs fuer den PC errescheinen.

HD5870 Debakel auf welchem Planeten hast du bis jetzt gelebt.:eek:

StefanV
2013-03-06, 04:26:59
APUs in PC Bereich sind noch total lahm und nicht aus den Grund weil die Intel, Amd, nv das nicht wollen, sonder weil sie es nicht koennen.
Sorry, aber was du hier sagst, ist völlig falsch.

Natürlich könnte AMD eine APU bauen, die einen mittelklasse PC ersetzen könnte.

Das Problem dabei:
Das Teil möchtest DU nicht bezahlen!

Das hat aber rein gar nichts mit dem technisch möglichen zu tun sondern eher mit dem finanziellen Aspekt bzw dem Preis, der für ein solches Produkt zu zahlen wäre. DARUM macht man es nicht!
Weil der Markt dafür zu klein ist, die APU zu teuer und daher der Absatz gering...

HD5870 Debakel auf welchem Planeten hast du bis jetzt gelebt.:eek:
Ich meine mich dran erinnern zu können, dass die 5870 bei Einführung sehr schlecht verfügbar war...

Allerdings trifft das eigentlich auf jede neue Generation zu, insbesondere die aktuelle 7970...

Locuza
2013-03-06, 10:16:02
Warum?

Ich meinte die Wartezeit bis sich APUs am Markt durchgesetzt haben wird schrecklich.
Da fehlt es noch an so schrecklich viel und wenn sie sich durchgesetzt haben, dann weiß ich nicht einmal welche Situation am PC-Markt vorherrschen wird.

dilated
2013-03-06, 16:37:36
Das Problem dabei:
Das Teil möchtest DU nicht bezahlen!


dann wäre ein amd mainboard wohl so teuer wie eins von intel

die apu würde garnicht so viel teurer werden imho

Botcruscher
2013-03-06, 17:45:10
Was sollen denn diese Kassandra-Rufe? Eine APU mit 300mm² oder sogar noch ein wenig größer ist überhaupt kein Problem.

Zielgruppe?!? Selbst der Mobilmarkt ist nicht dafür bereit wenn es mehr kostet. Den ganzen Büromaschinen geht die Grafik am Arsch vorbei. Wer dann wirklich zocken will nimmt eh einen GPU und muss das APU-Geraffel heute schon meist mitsubventionieren.
Die Randgruppe für so einen Chip ist einfach zu klein. Jenseits der Grafik müsste man den Dingern überhaupt erst mal eine Daseinsberechtigung geben. Videos umwandeln ist es ganz sicher nicht.
Technisch möglich, ökonomisch Unsinn.

Gipsel
2013-03-06, 18:11:12
Zielgruppe?!? Selbst der Mobilmarkt ist nicht dafür bereit wenn es mehr kostet. Den ganzen Büromaschinen geht die Grafik am Arsch vorbei. Wer dann wirklich zocken will nimmt eh einen GPU und muss das APU-Geraffel heute schon meist mitsubventionieren.
Die Randgruppe für so einen Chip ist einfach zu klein. Jenseits der Grafik müsste man den Dingern überhaupt erst mal eine Daseinsberechtigung geben. Videos umwandeln ist es ganz sicher nicht.
Technisch möglich, ökonomisch Unsinn.
Es ging gerade um die technische Möglichkeit. Hayab sprach davon, daß AMD/intel keine größeren APUs bauen können selbst wenn sie wollten und die PS4-APU "experimentell" wäre. Und das stimmt so nun mal einfach nicht. ;)

Ronny145
2013-03-06, 18:52:56
dann wäre ein amd mainboard wohl so teuer wie eins von intel

die apu würde garnicht so viel teurer werden imho


AMD und Intel Mainboard Preise unterscheiden sich nicht. Was haben die überhaupt damit zu tun? Teurer wird die CPU. Technisch machbar wäre eine CPU mit richtig fetter GPU. Die Frage ist, ob es Sinn macht. Intel bringt nicht ohne Grund die HD5200 mit eDRAM und 40 EUs nur für Notebook Quadcores und belässt es für Desktop Quadcores bei 20 EUs. Der TDP Spielraum wäre doppelt so groß.

StefanV
2013-03-06, 19:02:07
dann wäre ein amd mainboard wohl so teuer wie eins von intel

die apu würde garnicht so viel teurer werden imho
Wie kommst du denn darauf, dass nur das Board teurer werden würde, bei einer 'Gaming APU'?!
Warum sollte es ausgerechnet nur das Board sein?!

Denn, was du gerade verdrängst, ist, dass das Die auch deutlich größer werden würde als es aktuell der Fall ist.

Gut, für eine TDP von 250-300W bräucht man auch ein paar gescheite Spannungsregler, das ist klar. Aber das ist alles, was man auf dem Board machen müsste! Wenn man denn nicht auch mit einer TDP von nur 100W arbeitet, wie bisher.

Den Grafikspeicher könnte man z.B. mit auf den Träger der CPU tackern, wie man das auch bei einigen mobile GPUs (http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-mobi/ati-radeon-x600-mobi.html) macht(e) (http://www.hitechreview.com/it-products/amd-introduced-ati-radeon-e4690-mobile-pci-express-module/21532/)...

Also gerade die APU wird dann deutlich teurer werden! Da kannst dann locker mit 300-500€ für eine High End rechnen.
Wenn man das denn auch realisieren würde, natürlich...

Knuddelbearli
2013-03-06, 19:31:22
und teurers Board wär ja auch egal

aktuell:

FX-4320
130€
Kühler
30€
Mainboard
80€
2x4 GB DDR3
80€
AMD 7850
200€



danach dann eventuell
APU
250€
Kühler
50€
Mainboard
120€
DDR4 4x2 GB
140€

Gipsel
2013-03-06, 20:09:24
Den Grafikspeicher könnte man z.B. mit auf den Träger der CPU tackern, wie man das auch bei einigen mobile GPUs (http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-mobi/ati-radeon-x600-mobi.html) macht(e) (http://www.hitechreview.com/it-products/amd-introduced-ati-radeon-e4690-mobile-pci-express-module/21532/)...

Also gerade die APU wird dann deutlich teurer werden! Da kannst dann locker mit 300-500€ für eine High End rechnen.Selbst mit 500mm² Die und direkt aufgelöteten 4 GB RAM wird das nicht so teuer. Die Herstellungskosten wären wohl selbst damit (deutlich) unter 200$. Was glaubst Du, warum sich Ailuros immer so über die Mondpreise bei momentanen GPUs ausläßt. ;)

dilated
2013-03-06, 21:00:01
von highend hab ICH auch nichts gesagt

für den normalen menschen der gerne mal ein computerspiel spielt
hätten die dinger gereicht, und amd hätte mit gutem marketing(^^)
sicher auch mehr verkauft

StefanV
2013-03-06, 21:00:14
Klar, aber nehmen wir mal die 200$ Herstellungspreis and.
Dann nimmt sich der Importeur noch mal so 15% -> 230$, der Distri auch -> 264,5$, dann noch mal der Händler 20% -> 317.4$
Und da ist noch keine Fracht drin (gut, bei CPUs dürfte die eher gering bis nicht nennenswert sein) und 'nen Gewinn habe ich auch nicht gemacht...

Nehmen wir mal 30% Marge an:

Für 260$ gehts an den Importeur.
Für 299$ an den Distri
und der Händler verkaufts für 358,8$...

Gipsel
2013-03-06, 21:02:48
Ich glaube, Du überschätzt die Gewinnspannen der Zwischenhändler.

StefanV
2013-03-06, 21:06:36
Ich glaube, Du überschätzt die Gewinnspannen der Zwischenhändler.
Etwas. Normalerweise sollten es eher so um die 10% sein, die sie machen. Ein riesiger Importeur vielleicht auch mal mit 5-7,5%, je nach Produkt...

Gipsel
2013-03-06, 21:14:39
Oft bekommt man CPUs ungefähr zum gleichen Preis hier im Versandhandel, zu dem intel/AMD selbst die in 1000er-Stückzahlen abgeben. Das kann sich nur rechnen, wenn die Margen sehr dünn sind und Großhändler entsprechend deutlich höhere Stückzahlen (zu etwas niedrigeren Preisen) abnehmen. Und so viele Zwischenhändler gibt es deswegen auch gar nicht.

Edit:
Als Beispiel habe ich gerade mal nachgeschaut, daß AMD den A10-5800K an Direktkunden in 1000er Stückzahlen aktuell für 122$ verkauft. Bei Alternate steht er mit 109,90€ drin (edit2: nochmal geizhals bemüht, billigster Anbieter momentan 106,36€).
109,90 sind ohne Mehrwertsteuer 92,35€ (89,38€), ein Euro ist gerade 1,299$ Wert. Da können wir also rechen 92,35*1,299 = 119,96$ (116,10$). Da gibt es einfach kaum irgendeine Gewinnspanne, erst recht nicht mehrfach 10%.

StefanV
2013-03-06, 21:41:16
Naja, das sind aber auch eben nur 1000er Stückzahl Preise bzw Listenpreise.
Die hast du in der Praxis aber nie bzw dafür verkaufst nicht.

In der Praxis geht man dann als Generalimporteur zum Hersteller hin, sagt: Das hätt ma. Nur Listenpreis is uns zu teuer, machts mal günstiger. Und das macht man dann auch noch 'nen bissel günstiger.
Insbesondere wenns bisserl mehr abgenommen wird...

Gipsel
2013-03-06, 21:46:06
Ja, ein bissel. Solange da nicht Dell, HP oder sonstwer mit Millionenstückzahlen kommt, wird das aber nicht so viel billiger. Die etwas niedrigeren Abgabepreise durch höhere Mengen hatte ich ja von Anfang an erwähnt. Anders würde das ja auch gar nicht gehen, als Endkunde eine CPU unter dem Abgabepreis des Herstellers kaufen zu können. Aber mehr als 2 oder 3 Euro pro CPU macht da keiner unterwegs Gewinn, der Händler selber übrigens auch nicht.

Egal, das wird hier zu sehr OT.

Deinorius
2013-03-06, 21:51:01
Klar, aber nehmen wir mal die 200$ Herstellungspreis and.
[...]
und der Händler verkaufts für 358,8$...


Wo wäre das Problem? Angenommen, die APU kostet im Handel 350 €. Und? Das wären dann z.B. 150 € für CPU und 200 € für GPU. Nehmen wir Trinity und als GPU-Part die 78xx GPU. Dürfte zusammen IMHO keine 350 mm² brauchen. 200 $ Herstellungskosten?

Deinorius
2013-03-06, 21:56:10
Die letzten 2 Jahre geschlafen? Schau dir doch mal an, was Westmere über SB über IB bis jetzt zu Haswell passiert ist....

Und wer sagt, das man nicht auch richtig große APUs bauen kann? Man muss halt nur erstmal nen Markt dafür schaffen, bzw eher eine Marktakzeptanz. Einen Markt gibt es nämlich schon jetzt dafür.


Ich hätte hinzufügen sollen, dass ich mir diese Frage speziell für den Enthusiasten-Bereich frage. Gerade wie im vorigen Post von mir geschrieben, Trinity mit einer Radeon 7850 wäre kein Problem, solange man die nötige Bandbreite gewährleistet, ohne den Adressraum wieder zu teilen.
Den High-End Bereich zu bedienen, stelle ich mir aber schwieriger vor. Vielleicht kann man bis dahin aber auch auf bestimmten Mainboards weiterhin eine dedizierte GPU einbauen, mit der dann per CF oder sonst wie eine höhere Leistung bringt, bis auch dieser Leistungsbereich abgedeckt werden kann.

=Floi=
2013-03-07, 02:03:27
gibt es ne genaue erklärung, was eine APU ist? dachte da rechnet einfach eine IGP?!

dildo4u
2013-03-07, 02:30:37
APU ist nur AMD's Marketingbegriff für die dichtere Zusammenlegung der CPU und GPU.Bisher liegen CPU und GPU zwar schon auf einem Die,greifen aber nich auf den selben Adressraum im Speicher zu,das soll sich bei AMD dieses Jahr ändern.

Interestingly, the discrete GPU is the fastest at processing the data, but in the end is the slowest because it spends the majority of its execution time moving the data to and from the GPU and CPU memory areas. While the individual hardware is available to accelerate workloads in programs that use both CPU and GPU for processing, a great deal of execution time is spent moving data from the memory the CPU uses to the GPU memory (especially for discrete GPUs).

Trinity improves upon this by having the GPU on the same die as the CPU and providing a fast bus with direct access to system memory (the same system memory the CPU uses, though not necessarily the same address spaces). Kaveri will further improve upon this by giving both types of processors fast access to the same (single) set of data in memory.


http://www.extremetech.com/computing/130939-the-future-of-amds-fusion-apus-kaveri-will-fully-share-memory-between-cpu-and-gpu/2

Hübie
2013-03-07, 02:48:03
Na ja die Hardware ist eine Seite. Wie wir aber alle wissen sind die Programmierer heutzutage völlig überfordert und brauchen 8-10 Jahre für großflächige Verteilung (da denke ich an 64 bit OS & Apps).
HSA ist aber bestimmt schon ein guter Anfang.

dildo4u
2013-03-07, 02:53:43
Hier gehst ja um Konsolen,daher dürfte das kein Problem sein,die Hardware wird voll genutzt kein warten auf OS Update's oder solche Späße.Zumindest bei der PS4 bei der Xbox 3 kein Plan wie groß die Einschränkungen sind wenn der Entwickler DX11 nutzt.

Simon Moon
2013-03-12, 07:10:18
Oft bekommt man CPUs ungefähr zum gleichen Preis hier im Versandhandel, zu dem intel/AMD selbst die in 1000er-Stückzahlen abgeben. Das kann sich nur rechnen, wenn die Margen sehr dünn sind und Großhändler entsprechend deutlich höhere Stückzahlen (zu etwas niedrigeren Preisen) abnehmen. Und so viele Zwischenhändler gibt es deswegen auch gar nicht.


Richtig. Bei CPUs beträgt die Marge eines Händlers zwischen 2 - 3% - allerhöchstens. Der Preisdruck ist hier (wie auch bei SSDs) viel zu gering, da die Dinger in ihrem Wert quasi vor sich hinschmelzen. Das Motto ist, lieber heute eine CPU zum Einkaufspreis rauswerfen, als morgen mit Verlust verkaufen. Die Marge, wobei die bei PC Komponenten eh gering ist, wohl so ca. <5% overall, wird dann über andere Komponenten reingeholt: CPU-Kühler, Kabel, Netzteile, Gehäuse, optische Laufwerke... Das ist aber nicht viel und an einem PC aus Einzelkomponenten verdient der Händler wohl weniger als an einem Smartphone (absolut, sowie relativ betrachtet).

Die Distris haben Ihre Margen dann auch nur "fiktiv". Zuerst mal geben sie jedem Heinz der schon mal 10 Stück kauft ihre 10 - 15% Rabatt von den Traumpreisen. Die Händler und Grosshändler bekommen dann wohl nochmal so je 5%. Die grosse Menge wird auch da mit einer geringen Marge eingefahren - nur der Listenpreis, den eh niemand bezahlt, beinhaltet diese hohen Margen.

john carmack
2013-03-15, 13:37:56
Nvidia hatte keine Lust auf die Playstation 4

http://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html

Watson007
2013-03-15, 13:48:02
Nvidia hatte keine Lust auf die Playstation 4

http://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html

das ist natürlich Quatsch und unvollständig. NVidia kann schlicht kein konkurrenzfähiges Produkt liefern.

Klar hat Sony um den Preis gefeilscht aber AMD bekommt unter Garantie mehr weil die nicht nur die Grafikkarte, sondern auch eine x86-CPU liefern können im Gegensatz zu NVidia. Hätte man die Grafikkarte bei NVidia gekauft hätte man die CPU zusätzlich noch woanders kaufen müssen, ergo bekommt AMD mehr Geld als NVidia.

dieses kleine Detail wird natürlich verschwiegen... und der Machtverlust von NVidia wird natürlich von NVidia kleingeredet indem sie sagen das herkömmliche Konsolen keine Zukunft mehr haben - was aber eher nach Zweckpessimismus von NVidia klingt weil sie nicht mitspielen können diesmal.

Der Markt erweitert sich eher, kleiner wird er aber speziell für herkömmliche Spielekonsolen nicht. Oder will jemand ernsthaft das Spielerlebnis an einem +40"-Fernseher mit 5.1-Sound mit einem Tablet vergleichen?!

john carmack
2013-03-15, 13:55:14
AMD kann aber auch bewusst tief gepokert und ihre Chips entsprechend günstig angeboten haben, damit sie den Vertrag auf jeden Fall an Land ziehen.

Getreu dem Motto: "koste es was es wolle!"

Ich meine damit das AMD vielleicht nicht viel gewinn macht - die anderen dafür aber gar keinen!


Und vielleicht werden alle Spiele in Zukunft auf AMD Karten besser laufen als auf Nvidias... Somit wäre das ein Deal mit nicht unbedingt viel Gewinn dafür aber eine Art "Zukunftsinvestition"
We will see....

Undertaker
2013-03-15, 14:02:01
das ist natürlich Quatsch und unvollständig. NVidia kann schlicht kein konkurrenzfähiges Produkt liefern.

Er betonte aber, die Entscheidung gegen einen Deal mit Sony sei "keine Frage der Technik" gewesen.

Das wäre dann wohl eine Lösung auf Basis mehrerer Cortex-A15 Kerne geworden. Technisch natürlich absolut denkbar und konkurrenzfähig, für Nvidia wohl aber vom Entwicklungsaufwand unattraktiv. Denn:

und wenn wir einen Chip für Sony oder Microsoft gebaut hätten, wäre das ein Chip, den wir wahrscheinlich für einen anderen Geschäftsbereich nicht hätten bauen können

AMD kann die Entwicklungskosten schließlich auch noch auf Kabini- und GCN-Ableger im x86-Markt abwälzen.

Schnuller4u
2013-03-15, 14:19:29
Das wäre dann wohl eine Lösung auf Basis mehrerer Cortex-A15 Kerne geworden. Technisch natürlich absolut denkbar und konkurrenzfähig, für Nvidia wohl aber vom Entwicklungsaufwand unattraktiv. Denn:

Konkurrenzfähig ohne 64 Bit? :lol:
Dazu wohl noch langsamer...

dildo4u
2013-03-15, 14:21:45
Konkurrenzfähig ohne 64 Bit? :lol:
Dazu wohl noch langsamer...
Denver kann 64bit.

http://en.wikipedia.org/wiki/Project_Denver

Exxtreme
2013-03-15, 14:24:54
Das wäre dann wohl eine Lösung auf Basis mehrerer Cortex-A15 Kerne geworden. Technisch natürlich absolut denkbar und konkurrenzfähig, für Nvidia wohl aber vom Entwicklungsaufwand unattraktiv. Denn:


Die ARM-Kerne sind viel zu langsam. Da wäre selbst die alte PS3 schneller gewesen. ARM ist vielleicht was für Nintendo aber nicht für Sony.

Watson007
2013-03-15, 14:31:56
Das wäre dann wohl eine Lösung auf Basis mehrerer Cortex-A15 Kerne geworden. Technisch natürlich absolut denkbar und konkurrenzfähig, für Nvidia wohl aber vom Entwicklungsaufwand unattraktiv.

Und wenn AMD bewusst x86-Prozessoren wollte? Sie wollten sicherlich auch eine einfachere Portierbarkeit erreichen.

Coda
2013-03-15, 14:32:04
Denver kann 64bit.

http://en.wikipedia.org/wiki/Project_Denver
Es ging aber um A15.

Fireblade
2013-03-15, 14:34:16
Mich wundert eher, dass es überhaupt Verhandlungen mit Nvidia gegeben hat.
Mit Microsoft haben sie es sich ja schon bei bei XboX 1 verscherzt, und Sony kann im nachhinein auch nicht mit der Nvidia Grafiklösung in der PS3 zufrieden sein (verglichen zur AMD Lösung in der Xbox 360).

Scheint für mich nen Fall von "Marktführer-Arroganz" zu sein ..

Watson007
2013-03-15, 14:39:27
was soll jetzt eigentlich der Quark mit der Shield-Streaming-Konsole von NVidia? Glaubt hier jemand ernsthaft an einen Erfolg des Dings?

Undertaker
2013-03-15, 14:40:35
Die ARM-Kerne sind viel zu langsam. Da wäre selbst die alte PS3 schneller gewesen. ARM ist vielleicht was für Nintendo aber nicht für Sony.

Unterschätz da mal nicht den Cortex A15 - der ist IPC-mäßig über Atom-Niveau, und das wohl sogar recht deutlich. Ich schätze Kabini in dieser Beziehung zwar noch etwas leistungsfähiger ein, dafür kann man den A15 im gleichen TDP-Budget höher takten.

Die fehlende 64 Bit Unterstützung könnte da wohl das größere Problem gewesen sein. Keine Ahnung, ob man sich da mit irgendwelchen Adressierungs-Tricks hätte behelfen können.

Sven77
2013-03-15, 14:40:51
was soll jetzt eigentlich der Quark mit der Shield-Streaming-Konsole von NVidia? Glaubt hier jemand ernsthaft an einen Erfolg des Dings?

Das ist eine reine Machbarkeitsstudie seitens Nvidia um den Tegra zu pushen.. Erfolg muss das Ding nicht haben, sondern Chips verkaufen

Watson007
2013-03-15, 14:44:01
Das ist eine reine Machbarkeitsstudie seitens Nvidia um den Tegra zu pushen.. Erfolg muss das Ding nicht haben, sondern Chips verkaufen

naja NVidia hat ja explizit gesagt dass sie nicht glauben das herkömmliche Konsolen eine Zukunft haben. Außerdem meinten sie dass Streaming die Zukunft gehört.

http://www.onlinewelten.com/games/nvidia/news/grafikkartenhersteller-sieht-ende-herkoemmlicher-konsolen-systeme-gekommen-116445/

Zweckpessimismus, wie gesagt....

Sven77
2013-03-15, 14:44:38
naja NVidia hat ja explizit gesagt dass sie nicht glauben das herkömmliche Konsolen eine Zukunft haben. Außerdem meinten sie dass Streaming die Zukunft gehört.

Und damit sind sie wohl mit Sony einer Meinung

Watson007
2013-03-15, 14:46:37
aber bei NVidia ist das wohl eher Zweckpessimismus, weil sie nicht mitspielen können diesmal.

Ob es tatsächlich die Zukunft ist wird sich zeigen.... ich glaube nicht daran. Außerdem gibt man damit die Wiederverkaufbarkeit seiner Spiele endgültig auf. Und wir sehen ja wie zuverlässig Server sind bei Massenanstürmen....

Außerdem nicht zu unterschätzen den Drang etwas tatsächlich in den Händen zu halten... nichtmal Download-Gaming wird Retail-Spiele vollständig verdrängen können.

Tesseract
2013-03-15, 14:46:49
Mich wundert eher, dass es überhaupt Verhandlungen mit Nvidia gegeben hat.

die muss es schon allein deswegen geben um ein druckmittel für die verhandlungen mit AMD zu haben.
abgesehen davon ist "beleidigt sein" keine besonders gute geschäftsstrategie - was zählt ist das was letztendlich im vertrag steht.

john carmack
2013-03-15, 14:53:19
die muss es schon allein deswegen geben um ein druckmittel für die verhandlungen mit AMD zu haben.
abgesehen davon ist "beleidigt sein" keine besonders gute geschäftsstrategie - was zählt ist das was letztendlich im vertrag steht.


Erstens das, und als richtiger Geschäftsmann sollte man sich doch bitte mehr als nur 1-2 Angebote reinholen ;)

john carmack
2013-03-15, 15:01:24
Um nochmal zum Geld zurück zu kommen.

Es gibt tatsächlich Firmen die bewusst "kleine" Deals nicht annehmen.

Bei uns in der Firma zB war vor einiger Zeit im Gespräch gewesen einen neuen Hardware zulieferer (Laptops und Workstations) zu finden. Unter anderem DELL.

Es wurde auch Gespräche mit DELL geführt bis DELL letztendlich sagte, das 500 Maschinen im Jahr die wir kaufen würden einfach zu wenig sind. Mit solchen "kleinen Fischen" wie wir es sind, würde sich sowas einfach nicht lohnen.

Das mal dazu :D

Finch
2013-03-15, 15:06:42
Die ARM-Kerne sind viel zu langsam. Da wäre selbst die alte PS3 schneller gewesen. ARM ist vielleicht was für Nintendo aber nicht für Sony.
Autsch :D

Deinorius
2013-03-15, 15:07:03
Unterschätz da mal nicht den Cortex A15 - der ist IPC-mäßig über Atom-Niveau, und das wohl sogar recht deutlich. Ich schätze Kabini in dieser Beziehung zwar noch etwas leistungsfähiger ein, dafür kann man den A15 im gleichen TDP-Budget höher takten.

Die fehlende 64 Bit Unterstützung könnte da wohl das größere Problem gewesen sein. Keine Ahnung, ob man sich da mit irgendwelchen Adressierungs-Tricks hätte behelfen können.


Ich würde eher sagen, dass du Cortex A15 überschätzt und Jaguar unterschätzt. Vom Verbrauch her würde es keine allzu großen Unterschiede geben, wenn die Leistung vergleichbar wäre.

Auf der anderen Seite vergleichst du Jaguar bestenfalls ohne vollständige Ausbreitung. Jaguar hat wenigstens SSE und AVX. Und wie du schon richtig vermerkt hast, fehlt 64 bit.

Watson007
2013-03-15, 15:09:35
Um nochmal zum Geld zurück zu kommen.

Es gibt tatsächlich Firmen die bewusst "kleine" Deals nicht annehmen.

Bei uns in der Firma zB war vor einiger Zeit im Gespräch gewesen einen neuen Hardware zulieferer (Laptops und Workstations) zu finden. Unter anderem DELL.

Es wurde auch Gespräche mit DELL geführt bis DELL letztendlich sagte, das 500 Maschinen im Jahr die wir kaufen würden einfach zu wenig sind. Mit solchen "kleinen Fischen" wie wir es sind, würde sich sowas einfach nicht lohnen.

Das mal dazu :D

ich hab läuten gehört dass bei Konsolen die Stückzahlen ein bisschen höher sind....

Frozone
2013-03-15, 15:10:01
Ich kann die PS4 nun in einem Schweizer Store vorbestellen.
Liefertermin 29.11.2013 für 698.90CHF = 568€

In der Schweiz sind Elektronik Artikel eigentlich günstiger als in Deutschland, aber wird halt ein teurer Vorbestellungspreis sein.

john carmack
2013-03-15, 15:15:17
ich hab läuten gehört dass bei Konsolen die Stückzahlen ein bisschen höher sind....


was hat denn das jetzt damit zu tun?

StefanV
2013-03-15, 15:44:19
Nvidia hatte keine Lust auf die Playstation 4

http://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html
das ist natürlich Quatsch und unvollständig. NVidia kann schlicht kein konkurrenzfähiges Produkt liefern.
Danke, mehr gibt es nicht zu sagen.

und der Machtverlust von NVidia wird natürlich von NVidia kleingeredet indem sie sagen das herkömmliche Konsolen keine Zukunft mehr haben - was aber eher nach Zweckpessimismus von NVidia klingt weil sie nicht mitspielen können diesmal.
Dem kann ich mich nur anschließen. Auch die aktuelle Entwicklung deutet eher an, dass man bei nVidia momentan so ziemlich alles falsch macht, was man falsch machen kann. Wenn die so weiter machen, wie sie es aktuell tun, dann gibt es sie in ein paar Jahren nicht mehr.

Und genau das ist ja gerade das Problem, was die haben!
Ein Chef, der viel zu arrogant ist, der DIE Chance, die sie hatten einfach mal völlig verspielt hat und jetzt bekommen sie so langsam die Quittung dafür...

Und dieses wird sich auch in Zukunft fortsetzen.
Ich prophezeie: Wir werden in den nächsten Monaten noch so einige Heulbojen von nVidia vorgesetzt bekommen...

Bin schon irgendwie gespannt, worum es beim nächsten mal gehen wird...

Die ARM-Kerne sind viel zu langsam. Da wäre selbst die alte PS3 schneller gewesen. ARM ist vielleicht was für Nintendo aber nicht für Sony.
ACK.
Das, was nVidia hätte anbieten können, wäre einfach nicht befriedigend gewesen bzw nicht einmal im Ansatz auf dem Level auf dem die aktuelle PS4 APU ist...

Man hätte vielleicht die Grafikkarte liefern können, die hätte dann auch eine Vergleichbare Leistung gehabt, nur ohne gescheite CPU ist halt nichts mehr mit solchen Deals...
Denn warum sollte man sich mit zwei Lieferanten rumschlagen wollen, wenn man das gnaze auch von einem haben kann und der Preis auch noch ansprechender ist??

Ein Risiko für AMD sieht Tamasi auch: "Wir werden sehen, wie sich das aus geschäftlicher Sicht entwickelt", sagte der Nvidia-Manager.
Wenn man jetzt zwischen den zeilen liest und gemein ist, würd man die Aussage wie folgt deuten:
AMD hat uns an den Eiern, wir stehen mit dem Rücken zur Wand (und können nichts dagegen tun)...

Tomb Raider (2013) könnte ein erster Vorgeschmack auf das sein, was treuen/eingefleischten nVidia Fans erwartet: eine Situation, in der das eine oder andere Spiel ab Werk nicht soo gut auf nVidia Hardware läuft...

Undertaker
2013-03-15, 15:51:37
Ich würde eher sagen, dass du Cortex A15 überschätzt und Jaguar unterschätzt. Vom Verbrauch her würde es keine allzu großen Unterschiede geben, wenn die Leistung vergleichbar wäre.

Auf der anderen Seite vergleichst du Jaguar bestenfalls ohne vollständige Ausbreitung. Jaguar hat wenigstens SSE und AVX. Und wie du schon richtig vermerkt hast, fehlt 64 bit.

Wie gesagt: Ich sehe den Cortex-A15 nicht ganz auf Jaguar-Niveau, aber immerhin in Schlagdistanz - von welcher Differenz gehst du denn aus? Hier mal ein paar interessante Werte:

http://semiaccurate.com/forums/showpost.php?p=162196&postcount=100
http://www.anandtech.com/show/6422/samsung-chromebook-xe303-review-testing-arms-cortex-a15/6

Sunspider wurde in beiden Tests unter jeweils vergleichbaren Bedingungen getestet. Wenn wir von den c't-Werten die Relation Bobcat zu Atom extrahieren und von Anandtech Atom zum A15, liegt der A15 wohl durchaus bei Bobcat-IPC. Gegenüber Kabini wäre dann wohl aber noch immer mehr Takt notwendig, was vom Verbrauch her aber auch möglich sein sollte. Ich will jetzt nicht abwägen, welche Lösung am Ende effizienter wäre - aber von Perf/Watt und der absolut erreichbaren Performance her wäre ein A15 vermutlich wohl durchaus Konsolen-tauglich.

Zu SSE und AVX: Bei ARM gäbe es doch z.B. die NEON-Erweiterung...

dildo4u
2013-03-15, 15:54:30
Tomb Raider (2013) könnte ein erster Vorgeschmack auf das sein, was treuen/eingefleischten nVidia Fans erwartet: eine Situation, in der das eine oder andere Spiel ab Werk nicht soo gut auf nVidia Hardware läuft...
Der Bench läuft nicht so gut das Game selber läuft z.b auf einer GTX670 besser als auf einer 7970 die kosten beide ca das Selbe.

http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

Watson007
2013-03-15, 16:02:42
Wie gesagt: Ich sehe den Cortex-A15 nicht ganz auf Jaguar-Niveau, aber immerhin in Schlagdistanz - von welcher Differenz gehst du denn aus? Hier mal ein paar interessante Werte:

http://semiaccurate.com/forums/showpost.php?p=162196&postcount=100
http://www.anandtech.com/show/6422/samsung-chromebook-xe303-review-testing-arms-cortex-a15/6

Sunspider wurde in beiden Tests unter jeweils vergleichbaren Bedingungen getestet. Wenn wir von den c't-Werten die Relation Bobcat zu Atom extrahieren und von Anandtech Atom zum A15, liegt der A15 wohl durchaus bei Bobcat-IPC. Gegenüber Kabini wäre dann wohl aber noch immer mehr Takt notwendig, was vom Verbrauch her aber auch möglich sein sollte. Ich will jetzt nicht abwägen, welche Lösung am Ende effizienter wäre - aber von Perf/Watt und der absolut erreichbaren Performance her wäre ein A15 vermutlich wohl durchaus Konsolen-tauglich.

Zu SSE und AVX: Bei ARM gäbe es doch z.B. die NEON-Erweiterung...

Und wenn Sony explizit einen x86-Cpu-Kern wollte? Immerhin vereinfacht das die Portierung.

Undertaker
2013-03-15, 16:07:28
Und wenn Sony explizit einen x86-Cpu-Kern wollte? Immerhin vereinfacht das die Portierung.

Dann frag ich mich, warum man mit Nvidia verhandelt hat. :freak: Da kann es ja nur um eine ARM-Lösung gegangen sein.

Finch
2013-03-15, 16:09:11
Dann frag ich mich, warum man mit Nvidia verhandelt hat. :freak: Da kann es ja nur um eine ARM-Lösung gegangen sein.
Nicht zwangsläufig.

Sony hätte ja nicht eine Nvidia CPU Lösung nutzen müssen.

Skysnake
2013-03-15, 16:23:27
Nvidia hatte keine Lust auf die Playstation 4

http://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html
Bullshitbingo...

Nebelkerzen von nVidia, wie man es leider in den letzten Jahren schon von Ihnen gewöhnt ist...

Tesseract
2013-03-15, 16:28:22
Dann frag ich mich, warum man mit Nvidia verhandelt hat. :freak: Da kann es ja nur um eine ARM-Lösung gegangen sein.
denkbar wäre auch eine GPU mit fremd-CPU z.B. von IBM am selben die gewesen. dass es sich dabei aber um keine 100%ige nvidia-lösung handelt ist sicher einer der gründe warum die verhandlungen nix geworden sind.

Iruwen
2013-03-15, 16:32:40
So wie das hier klingt meint man Nvidia würde tief in den roten Zahlen stecken und AMD tolle Gewinne machen :D

Undertaker
2013-03-15, 17:12:43
denkbar wäre auch eine GPU mit fremd-CPU z.B. von IBM am selben die gewesen. dass es sich dabei aber um keine 100%ige nvidia-lösung handelt ist sicher einer der gründe warum die verhandlungen nix geworden sind.

Hmm...

"und wenn wir einen Chip für Sony oder Microsoft gebaut hätten, wäre das ein Chip, den wir wahrscheinlich für einen anderen Geschäftsbereich nicht hätten bauen können"

Ist jetzt etwas Kaffeesatzleserei, für mich klingt das aber eher danach, dass über ein mögliches "Komplettpaket" verhandelt wurde. Aber hätte, wäre, wenn. ;)

LadyWhirlwind
2013-03-15, 18:23:26
Ja hört sich für mich auch so an, und vorallem das Nvidia mittelfristig keine Verwendung für die zu entwickelnden Technologien gesehen hatte, die entsprechende Investitionen für Nvida hätte sinnvoll erscheinen lassen. Sony war wohl logischerweise nicht bereit Nvidia wesentlich mehr zu bezahlen als der Konkurent AMD gefordert hat. Da soweit sich das zum jetztigen Zeitpunkt sagen lässt, viel Technologie in der PS4 APU steckt die AMD anderweitig verwendet bzw. verwenden kann, viel deren Angebot entsprechend niedrig aus. Bei Nvidia wäre es wohl eine ARM-CPU geworden, die entsprechend aufgepeppt hätte werden müssen. Ich denke da z.B. den A15 mit 64bit auszustatten. Ein Aufwand der sich für Nvidia nicht gelohnt hätte, weil dafür entwickeln sich ja eigentlich Project Denver.

L233
2013-03-15, 19:34:32
Wie gesagt: Ich sehe den Cortex-A15 nicht ganz auf Jaguar-Niveau, aber immerhin in Schlagdistanz - von welcher Differenz gehst du denn aus? Hier mal ein paar interessante Werte:

http://semiaccurate.com/forums/showpost.php?p=162196&postcount=100
http://www.anandtech.com/show/6422/samsung-chromebook-xe303-review-testing-arms-cortex-a15/6

Sunspider wurde in beiden Tests unter jeweils vergleichbaren Bedingungen getestet.
SunSpider ist sehr software-abhängig, da würde ich mit dem "vergleichbar" vorsichtig sein.

FelixPaul
2013-03-15, 20:13:49
So wie das hier klingt meint man Nvidia würde tief in den roten Zahlen stecken und AMD tolle Gewinne machen :D

Intel mit seiner integrierten HD-GPU bedient halt die normale Desktop- bzw. Facebook und Browsergame Kundschaft. AMD in den nächsten 5 bis 7 Jahren die Konsolen Szene. Wo steht nVidia?

L233
2013-03-15, 20:28:28
Intel mit seiner integrierten HD-GPU bedient halt die normale Desktop- bzw. Facebook und Browsergame Kundschaft. AMD in den nächsten 5 bis 7 Jahren die Konsolen Szene. Wo steht nVidia?
In der Gewinnzone, immerhin. Es ist völlig egal, wen AMD alles bedient. Wichtig ist, was sie dran verdienen. Die Chips an Konsolenhersteller zu verramschen wird AMD sicherlich bei der Deckung der Fixkosten helfen. Das ist ja schonmal was.

Watson007
2013-03-15, 20:32:01
In der Gewinnzone, immerhin. Es ist völlig egal, wen AMD alles bedient. Wichtig ist, was sie dran verdienen. Die Chips an Konsolenhersteller zu verramschen wird AMD sicherlich bei der Deckung der Fixkosten helfen. Das ist ja schonmal was.

es ist nicht egal. AMD wird sicherlich generell beim Spielesupport zulegen, sprich die meisten Spiele werden vielleicht einen Tacken besser auf AMD-Grafikkarten laufen. Eben weil alle Konsolen künftig AMD-Chips benutzen, dann werden halt auch die Spiele darauf optimiert. AMD kann damit jedenfalls nicht mehr ignoriert werden.

und Image-Effekte auch nicht zu vergessen, ich glaube hier hat AMD noch großen Nachholbedarf. Will mir nicht in den Kopf dass AMD in letzter Zeit so hohe Marktanteilverluste hat hinlegen müssen.

Aber natürlich muss auch AMD wieder in die Gewinnzone kommen.

Aber vielleicht fallen auch positive Seiteneffekte für sie ab.

L233
2013-03-15, 20:42:02
es ist nicht egal. AMD wird sicherlich generell beim Spielesupport zulegen, sprich die meisten Spiele werden vielleicht einen Tacken besser auf AMD-Grafikkarten laufen. Eben weil alle Konsolen künftig AMD-Chips benutzen, dann werden halt auch die Spiele darauf optimiert. AMD kann damit jedenfalls nicht mehr ignoriert werden.

Das muss sich erst noch herausstellen. In der aktuellen Generation war die Xbox 320 wahrscheinlich die Lead-Plattform für die meisten Multi-Plattform-Titel. Viel hat das AMD irgendwie nicht gebracht...

und Image-Effekte auch nicht zu vergessen, ich glaube hier hat AMD noch großen Nachholbedarf.

Denke nicht, dass es großartige Image-Effekte gibt. Hat es irgend jemanden interessiert, dass der RSX in der PS3 von nVidia war? Mich nicht.

Zumal meine Reaktion weniger "die sind so gut, dass sie von allen Herstellern als GPU-Lieferant ausgewählt wurden" war, sondern eher: "die waren verzweifelt genug, um mit dem Preis so weit runterzugehen".

Deinorius
2013-03-15, 20:46:59
Wie gesagt: Ich sehe den Cortex-A15 nicht ganz auf Jaguar-Niveau, aber immerhin in Schlagdistanz - von welcher Differenz gehst du denn aus? Hier mal ein paar interessante Werte:


Schlagdistanz? Bobcat ist je nach Benchmarks 50-70 % (oder gar noch mehr) schneller als ein Atom mit etwas höherer Taktfrequenz! Es gibt natürlich auch Ausnahmen, wo der Abstand niedriger liegt, wie z.B. beim Sunspider. ;) Die Benchmarks von Anandtech sind mir jetzt aber wirklich neu. Interessant, dass dieser so viel schneller sein soll als ein Atom. Mir waren bis jetzt nur Benchmarks bekannt, wo dieser zwar schneller, aber gerade mal so schneller war.
Aber den Vergleich ziehen, ist wirklich schwer. Gerade in Bezug auf das Diskussionsthema wären z.B. Physikberechnungen sinnvoller. Etwas, das den Bedarf in Spielen simuliert.

Gibt es wenigstens Die Size Angaben vom Cortex A15? Ich finde dazu einfach nichts.

Zu SSE und AVX: Bei ARM gäbe es doch z.B. die NEON-Erweiterung...


Bringt das ungefähr genauso viel?

Undertaker
2013-03-15, 21:31:02
SunSpider ist sehr software-abhängig, da würde ich mit dem "vergleichbar" vorsichtig sein.

So wie ich das verstehe, kam wohl jeweils der gleiche bzw. vergleichbare Browser zum Einsatz, das sollte also schon passen. Die Frage ist natürlich, wie auch Deinorius anmerkte, ob das jetzt auch für andere Tasks zutreffende Performancerelationen sind. Das ist natürlich schwer zu beurteilen.


Gibt es wenigstens Die Size Angaben vom Cortex A15? Ich finde dazu einfach nichts.

Bringt das ungefähr genauso viel?

Genau kann ich das beides nicht beantworten. Allerdings: So winzig wie die Kabini-Kerne sind und wie groß A15-Kerne auf entsprechenden Die-Shots erscheinen, glaube ich nicht, dass die ARM-Variante hier wirklich viel kleiner ist. Wenn überhaupt. ;) Wer will, kann's ja mal ausmessen.

Ja hört sich für mich auch so an, und vorallem das Nvidia mittelfristig keine Verwendung für die zu entwickelnden Technologien gesehen hatte, die entsprechende Investitionen für Nvida hätte sinnvoll erscheinen lassen. Sony war wohl logischerweise nicht bereit Nvidia wesentlich mehr zu bezahlen als der Konkurent AMD gefordert hat. Da soweit sich das zum jetztigen Zeitpunkt sagen lässt, viel Technologie in der PS4 APU steckt die AMD anderweitig verwendet bzw. verwenden kann, viel deren Angebot entsprechend niedrig aus. Bei Nvidia wäre es wohl eine ARM-CPU geworden, die entsprechend aufgepeppt hätte werden müssen. Ich denke da z.B. den A15 mit 64bit auszustatten. Ein Aufwand der sich für Nvidia nicht gelohnt hätte, weil dafür entwickeln sich ja eigentlich Project Denver.

Imo eine treffende Zusammenfassung.

L233
2013-03-15, 21:44:12
So wie ich das verstehe, kam wohl jeweils der gleiche bzw. vergleichbare Browser zum Einsatz, das sollte also schon passen. Die Frage ist natürlich, wie auch Deinorius anmerkte, ob das jetzt auch für andere Tasks zutreffende Performancerelationen sind. Das ist natürlich schwer zu beurteilen.
Teilweise gab es sogar beim gleichen Browser in der Vergangenheit enorme Unterschiede zwischen einzelnen Versionen.

Ich sehe SunSpider eher als Test für Browser-Performance an, denn das ist es, was offenbar gemessen wird. Als Hardware-Test ist das Ding IMO komplett unbrauchbar.

Deinorius
2013-03-15, 21:57:13
Hier stand Mist.

RLZ
2013-03-15, 22:03:49
Gibt es wenigstens Die Size Angaben vom Cortex A15? Ich finde dazu einfach nichts.
http://chip-architect.com/news/2013_core_sizes_768.jpg

Reicht das?

Zum Vergleich:
http://pc.watch.impress.co.jp/img/pcw/docs/487/030/9.jpg

Deinorius
2013-03-15, 22:09:48
Ah danke. Damit ist mein voriger Text ad absurdum.

RLZ
2013-03-15, 22:19:25
Interessant wäre wieviel Die Fläche für ein A7/A15 Tandem draufgeht.
Da es sich dabei eigentlich um ein Core mit unterschiedlichen Powerstates handeln, macht da ein Vergleich mit Kabini nochmal Sinn. Mit der notwendigen Beschaltung rundum, wird man von der Fläche nicht mehr weit weg sein.

Coda
2013-03-16, 05:07:49
Es fällt mir immer wieder auf wie absurd groß die Atoms sind. Da wurde glaube ich wirklich die Praktikanten-Truppe ran gelassen.

john carmack
2013-03-16, 08:11:15
Es fällt mir immer wieder auf wie absurd groß die Atoms sind. Da wurde glaube ich wirklich die Praktikanten-Truppe ran gelassen.

der ist aber auch 32nm.... auf 28nm getrimmt könntest du ein paar mm2 abziehen.

fondness
2013-03-16, 08:43:19
Ja hört sich für mich auch so an, und vorallem das Nvidia mittelfristig keine Verwendung für die zu entwickelnden Technologien gesehen hatte, die entsprechende Investitionen für Nvida hätte sinnvoll erscheinen lassen. Sony war wohl logischerweise nicht bereit Nvidia wesentlich mehr zu bezahlen als der Konkurent AMD gefordert hat. Da soweit sich das zum jetztigen Zeitpunkt sagen lässt, viel Technologie in der PS4 APU steckt die AMD anderweitig verwendet bzw. verwenden kann, viel deren Angebot entsprechend niedrig aus. Bei Nvidia wäre es wohl eine ARM-CPU geworden, die entsprechend aufgepeppt hätte werden müssen. Ich denke da z.B. den A15 mit 64bit auszustatten. Ein Aufwand der sich für Nvidia nicht gelohnt hätte, weil dafür entwickeln sich ja eigentlich Project Denver.

Es ist offensichtlich das NV keinen SoC wie er in der PS4 steckt liefern kann, zumindest nicht ohne enorme Investitionen und langjährige Planung. Für beides waren keine Ressourcen/Zeit da. So zu tun als ob man prinzipiell eh nicht in die Konsolen wollte ist lächerlich. Das AMD natürlich wesentlich billiger und schneller liefern kann wo man beide Bausteine ohnehin schon "in house" hatte ist ebenso logisch.

Wie gesagt: Ich sehe den Cortex-A15 nicht ganz auf Jaguar-Niveau, aber immerhin in Schlagdistanz - von welcher Differenz gehst du denn aus? Hier mal ein paar interessante Werte:

http://semiaccurate.com/forums/showpost.php?p=162196&postcount=100
http://www.anandtech.com/show/6422/samsung-chromebook-xe303-review-testing-arms-cortex-a15/6

Sunspider wurde in beiden Tests unter jeweils vergleichbaren Bedingungen getestet. Wenn wir von den c't-Werten die Relation Bobcat zu Atom extrahieren und von Anandtech Atom zum A15, liegt der A15 wohl durchaus bei Bobcat-IPC. Gegenüber Kabini wäre dann wohl aber noch immer mehr Takt notwendig, was vom Verbrauch her aber auch möglich sein sollte. Ich will jetzt nicht abwägen, welche Lösung am Ende effizienter wäre - aber von Perf/Watt und der absolut erreichbaren Performance her wäre ein A15 vermutlich wohl durchaus Konsolen-tauglich.

Zu SSE und AVX: Bei ARM gäbe es doch z.B. die NEON-Erweiterung...

Der A9 schafft im Schnitt nicht mal Atom IPC und A15 soll auf einmal Bobcat erreichen? Das sich das nicht ausgeht ist offensichtlich, selbst ARM gibt nur 40% mehr IPC für A15 an.
Und sorry, so ein Javasript-Benchmark ist sicher nicht das richtige um die allgemeine Leistung einer CPU zu beurteilen.

Undertaker
2013-03-16, 09:15:04
Teilweise gab es sogar beim gleichen Browser in der Vergangenheit enorme Unterschiede zwischen einzelnen Versionen.

Anandtech: "Both systems were running the latest version of Chrome OS"
-> ergo auch gleiche Chrome-Version?

Die c't-Ausgabe habe ich leider nicht zur Hand, aber bei Heise gehe ich mal von sinnvollen (= gleichwertigen) Testbedingungen aus.

Ich sehe SunSpider eher als Test für Browser-Performance an, denn das ist es, was offenbar gemessen wird. Als Hardware-Test ist das Ding IMO komplett unbrauchbar.

Ich quote nochmal die Werte von semiaccurate und ergänze dazu Cinebench R10 Single 32 Bit:

E-450: 663ms / 1077 P
A6-3430MX: 423ms / -
A8-3500M: 472ms / 1613 P
Atom D2700: 823ms / 742 P (hochgerechnet von N2800)
Core i7-2640M: 199ms / 4506 P
Core i7-3610QM: 196ms / 4594 P

Wie man sieht, sind die Relationen zwar nicht 100% exakt, eine grundsätzliche Tendenz für die allgemeine Pro-Thread-Performance lässt sich aber sehr wohl ziehen. Immerhin haben wir 50% (!) IPC-Überlegenheit des A15 ggü. dem Atom in der Anandtech-Messung bei gleichem OS und Browser.

Man darf auch nicht vergessen, welche Taktrate für A15-Kerne möglich gewesen wäre. In der kommenden XBox/PS4 dürften die CPU-Kerne ein TDP-Budget von rund 30-40W besitzen. Auch wenn der A15 bei >2 GHz in der Leistungsaufnahme schnell nach oben schießen sollte, würde das bei 8 Kernen noch einiges an Spielraum bieten.

Ich halte die bei Golem veröffentlichte Version für durchaus realistisch. Bei den kleinen Margen im Konsolen-Geschäft wäre es schlicht nicht lohnend gewesen, speziell dafür einen entsprechenden Chip zu entwickeln.

L233
2013-03-16, 10:20:04
Immerhin haben wir 50% (!) IPC-Überlegenheit des A15 ggü. dem Atom in der Anandtech-Messung bei gleichem OS und Browser.
In einem komplett ungeeigneten Benchmark. Ich wäre vorsichtig, bei dem Ding auch noch Ergebnisse über mehrere Quellen hinweg zu vergleichen. Bei diesem Benchmark weiss doch keine Sau, welche Faktoren das Ergebnis letztendlich beeinflusst haben, beispielsweise wie hoch der Einfluss der Speicherbandbreite ist usw. Du darfst auch nicht vergessen, dass der getestet A15-SoC eine deutlich schnellere GPU hat und wer kann schon sagen, wie welche Auswirkungen das angesichts der GPU-Beschleunigung von Chrome hat - und sei's nur, weil mehr CPU-Zyklen anderswo gespart werden, wenn nicht gar der V8 direkt die GPU für einige Berechnungen heranzieht. Oder irgendwelche Compiler-Geschichten bei x86 vs ARM.

Wie anfällig SunSpider für selbst minimale Änderungen ist, konnte ich neulich erst selbst erleben. Ich habe 2 identische Nexus 4 Smartphones vor mir liegen gehabt, mit der selben Android OS Version. Der einzige Unterschied war, dass auf Gerät A der Franco Kernel r97 lief und auf Gerät B der Franco Kernel r102 lief. Gerät A hatte bei SunSpider ca. 1750ms, Gerät B ca. 1350ms. Für den Unterschied verwantworlich dürften Änderungen am Powermanagement gewesen sein.

Und dann willst Du ernsthaft mit so einem mega-volatilen Benchmark CPUs über unterschiedliche Browser-Kompilate hinweg für unterschiedliche CPU-Architekturen vergleichen? Dafür braucht man schon einen robusteren Benchmark.

Mit SunSpider kann man doch irgendwo alles beweisen. Schau mal hier:
http://forum.xda-developers.com/showthread.php?t=1944058

Bei dem zitierten Test ist der A15 SoC von Samsung 30% schneller als der A9 SoC von Samsung. Und da Atom deutlich potenter ist als A9, finde ich 50% höhere IPC beim Vergleich A15 vs Atom doch arg unwahrscheinlich.



Ich halte die bei Golem veröffentlichte Version für durchaus realistisch. Bei den kleinen Margen im Konsolen-Geschäft wäre es schlicht nicht lohnend gewesen, speziell dafür einen entsprechenden Chip zu entwickeln.
Dem stimme ich durchaus zu. Ich traue Nvidia grundsätzlich mehr zu als AMD, deshalb finde ich dieses "Nvidia kanns halt net kekekekeke" von einigen Leuten hier im Thread auch nicht unbedingt realistisch.

][immy
2013-03-16, 10:30:12
Immer wieder diese arm Verfechter. Arm hat eine lausige real-Performance. Die stärken in einigen Bereichen komken meist über Spezialeinheiten, die auch nur für diesen Zweck sind (z.b. Videobeschleunigung). Ich wiederhole mich vielleich, aber ein arm kann nicht mit x86 mithalten. Einzig der Stromverbrauch spricht für die Prozessoren, aber der lässt sich nicht beliebig erhöhen.

=Floi=
2013-03-16, 10:31:03
wiklich dramatisch wären zwi chips auch nicht. wenn der preis stimmt, dann ist es doch egal...

Ailuros
2013-03-16, 10:44:55
Dem stimme ich durchaus zu. Ich traue Nvidia grundsätzlich mehr zu als AMD, deshalb finde ich dieses "Nvidia kanns halt net kekekekeke" von einigen Leuten hier im Thread auch nicht unbedingt realistisch.

Ich hab zwar nur 2 Seiten zurueckgelesen, aber Sony wollte aus gutem Grund einen SoC in ihrer naechsten Konsole haben bzw. eine Loesung die nicht mehr als ein solcher SoC kosten wuerde.

NV hatte und konnte auch nicht so kurzfristig einen higher end SoC auf die Beine stellen und in dem Fall war tatsaechlich nichts anderes moeglich seitens NV. Das allererste Angebot bei der ersten IP Evaluierung vor etlichen Jahren war ein Plan mit einer IBM CPU und einer standalone NV GPU die mehr oder weniger eine Mischung aus Fermi und Kepler war aber nie wirklich annaehernd zum design complete Stadium kam da 32nm auch storniert wurde.

Fuer so etwas oder jegliches andere Gegenangebot von heutiger NV's Produktpallette sagte SONY vereinfacht unser GPU IP budget liegt bei so viel $ pro Einheit und nicht mehr und NV sagte einfach "nein danke zu wenig". NV war eben auch etwas "verwoehnt" vom PS3 deal wo sie immer noch etwas mehr pro Einheit kassieren als AMD fuer Xenos und es zeigt auch gleichzeitig dass die Schaetzungen mancher was AMD pro Konsolen-deal jaehrlich kassieren koennte um weit zu optimistisch sind.

Die eigentliche Wahrheit ist dass eine Konsolen GPU jeglicher Art nicht nur von einer handvoll Leute und ich ein paar Wochen auf die Beine gestellt werden kann; 2 Jahre minimum und ein ziemlich sattes team an dedizierten engineering resources braeuchte man schon und NV waere es schwer gefallen so etwas auch noch in ihre roadmaps zu quetschen und SONY wollte auch wirklich nur halbfertige SoCs haben nicht nur aus Kosten-Gruenden sondern auch aus Zeitdruck.

Von mir aus kann dann jeder ab einem Punkt seine eigenen bunten Maerchen stricken, aber es war fuer NV so oder so keine Option.

Mr.Magic
2013-03-16, 10:48:30
Dann frag ich mich, warum man mit Nvidia verhandelt hat.

PlayStation 4 gets Nvidia PhysX And APEX support (http://www.computerandvideogames.com/394981/playstation-4-gets-nvidia-physx-and-apex-support/)

Ailuros
2013-03-16, 10:52:24
[immy;9694805']Immer wieder diese arm Verfechter. Arm hat eine lausige real-Performance. Die stärken in einigen Bereichen komken meist über Spezialeinheiten, die auch nur für diesen Zweck sind (z.b. Videobeschleunigung).

Wenn video decoding nicht auf dedizierter fixed function hw ausgefuehrt wird, dann eben auf der GPU welches immer noch tonnenweise Strom spart im Vergleich zur CPU. Dein Punkt nochmal?

Ich wiederhole mich vielleich, aber ein arm kann nicht mit x86 mithalten. Einzig der Stromverbrauch spricht für die Prozessoren, aber der lässt sich nicht beliebig erhöhen.

Wo liegt denn die Grenze beim Stromverbrauch einer ARM Alternative genau? Natuerlich laesst sich der Stromverbrauch auf ARM cores erhoehen, es ist eben dann wohl nur so dass das Endresultat keineswegs besser sein wird als bei x86 CPUs.

Trotz allem haetten SONY bzw. Microsoft die etwas angepassten SoCs von AMD beauftragt egal ob es x86 CPUs oder Bumsfallera CPUs gewesen waeren; es ist eben auch nicht so dass die Jaguar cores die bestmoeglichen x86 Effizienz-Exemplare sind.

=Floi=
2013-03-16, 11:01:14
.

was muß an einer konsolen gpu anders sein als an einer für den pc? :confused:


edit
den schrott, den sie sony für die ps3 geliefert hatten war auch nicht gerade einen mehrpreis wert. so gesehen kann ich sony auch verstehen, weil sie dadurch nur nachteile hatten.

Skysnake
2013-03-16, 12:01:46
Dem stimme ich durchaus zu. Ich traue Nvidia grundsätzlich mehr zu als AMD, deshalb finde ich dieses "Nvidia kanns halt net kekekekeke" von einigen Leuten hier im Thread auch nicht unbedingt realistisch.
nVidia hat aber genau 0 Knowhow für ein SOC, der eine Next-Gen Konsole befeuern könnte. Die hätten viel zu viel rein stecken müssen, was viel zu lange gedauert hätte und auch viel zu teuer geworden wäre.

Ich glaub es durchaus, das es für nVidia einfach nicht rentabel war, da Sony einfach nur einen Betrag X zahlen wollte für Leistung Y. AMD konnte das bringen, und dabei noch Profit Z machen, da Sie eben schon ein ganz ordentliches Design hatten/haben, was Sie als Ausgangsbasis verwenden können. Es ist vorallem auch noch ein SOC. Wenn nVidia eine 2 Chiplösung hätte durchboxen wollen, hätten Sie bei sich selbst Abstriche bei der Marge machen müssen, weil Sony ja nur Betrag X zahlen wollte für Leistung Y.

Für nVidia kann es da durchaus sein, dass Sie mit einem Betrag X, der bei AMD Gewinn Z macht, selbst den Verlust Q gemacht hätten.

wiklich dramatisch wären zwi chips auch nicht. wenn der preis stimmt, dann ist es doch egal...
Klar, wenn der Preis stimmt ist es egal. Du handelst dir aber mit zwei Chips einige gravierende Nachteile ein, weshalb die 2 Chips unterm Strich deutlich besser sein müssen als die 1 Chiplösung. Vor allem hast du halt höhere Kosten für Interfaces, PCB usw usw.

Da ist es fast unmöglich eben die gleiche Leistung ab zu liefern UND billiger zu sen, als mit nur einem Chip. Und diese Mehrkosten hätte nVidia eben aus ihrer Tasche zahlen müssen, bzw. eben selbst weniger Geld verlangen können.

mboeller
2013-03-16, 16:38:17
Der A9 schafft im Schnitt nicht mal Atom IPC und A15 soll auf einmal Bobcat erreichen? Das sich das nicht ausgeht ist offensichtlich, selbst ARM gibt nur 40% mehr IPC für A15 an.
Und sorry, so ein Javasript-Benchmark ist sicher nicht das richtige um die allgemeine Leistung einer CPU zu beurteilen.

Also Nvidia liefert da gerade ein wenig Informationen bzgl des A15:

Laut Nvidia erreicht ein A15 bei 1,9GHz (incl. 64bit DDR3-1866) bei SPECInt 2000 1168 Punkte. Hier ist mal eine Tabelle von Spec selbst zum Vergleich: http://www.spec.org/cpu2000/results/cint2000.html

http://www.slideshare.net/fullscreen/caulfield2600/tegra-4-outperforms-snapdragon-17176163/1

....jetzt sucht es euch aus. ;)

ach ja: http://alt.3dcenter.org/artikel/2002/10-18.php

L233
2013-03-16, 17:04:59
Also Nvidia liefert da gerade ein wenig Informationen bzgl des A15:

Laut Nvidia erreicht ein A15 bei 1,9GHz (incl. 64bit DDR3-1866) bei SPECInt 2000 1168 Punkte. Hier ist mal eine Tabelle von Spec selbst zum Vergleich: http://www.spec.org/cpu2000/results/cint2000.html

http://www.slideshare.net/fullscreen/caulfield2600/tegra-4-outperforms-snapdragon-17176163/1

....jetzt sucht es euch aus. ;)

ach ja: http://alt.3dcenter.org/artikel/2002/10-18.php

Tabelle wurde seit 5 Jahren nicht geupdated.

http://images.anandtech.com/reviews/SoC/Intel/Moorestown/CPUperf.jpg
(AnandTech)

Intel behauptet, dass die Moorestown-Plattform auf "> 500" bei SpecINT2000 kommt, bei 1,5 GHz Takt und Single Core. Bei 1,9 GHz wären das dann ca. 650.

Tegra 4 schafft im Vergleich also etwa 50% mehr... braucht dafür aber 4 A15 Cores.

Edit: ich seh gerade dass SpecINT2000 eh nur einen Core nutzt... allerdings bleibt dabei problematisch, dass in diesem Fall die eine Core den vollen L2 Cache zur Verfügung hätte, was in der Realität im MultiCore-Betrieb kaum vorkommen sollte. Bei SpecINT2000 könnte das durchaus eine Rolle spielen.

Irgendwie ist die Benchmark-Situation im Moment nocht etwas unbefriedigend.

Coda
2013-03-16, 17:13:05
der ist aber auch 32nm.... auf 28nm getrimmt könntest du ein paar mm2 abziehen.
Das mag ja sein, aber auf der anderen Seite ist die Atom Architektur In-Order und braucht trotzdem deutlich mehr Transistoren als Bobcat/Jaguar, die beide ordentliche Out-Of-Order-Cores sind und deshalb auch deutlich schneller pro Takt.

Ich frag mich wirklich, wie sie das geschafft haben. Der nächste Atom wird da aber sicherlich aufschließen.

Gipsel
2013-03-16, 18:45:13
Also Nvidia liefert da gerade ein wenig Informationen bzgl des A15:

Laut Nvidia erreicht ein A15 bei 1,9GHz (incl. 64bit DDR3-1866) bei SPECInt 2000 1168 Punkte. Hier ist mal eine Tabelle von Spec selbst zum Vergleich: http://www.spec.org/cpu2000/results/cint2000.html

http://www.slideshare.net/fullscreen/caulfield2600/tegra-4-outperforms-snapdragon-17176163/1Die haben die Tegra4-Benchmarks mit DDR3-1866 gefahren? :freak: Und ohne Power-Limit. Hmm.
Spannend ist da die Aussage, daß Tegra4 im low power mode bei 845 MHz bei single-thread Last (läuft dann eigentlich der Stromsparkern?) 670 mW verbrauchen soll. Will sich irgendwer ausmalen, was das Ding bei 1,9 GHz (mit dann vermutlich deutlich höherer Spannung) auf allen 4 Kernen zieht? :rolleyes:
Die gehen davon aus, daß bei 845MHz 0,8V anliegen, für 1,9GHz 1,0V, ist aber nur eine Vermutung, der HPL-Prozeß verträgt auch locker 1,1V. Tja, ein A15 ist halt alles andere als wirklich stromsparend. Der Exynos5250 mit dual A15@1.7GHz ist bei Volllast auch ständig am Throtteln (sogar im Tablet!) und paßt in kein Smartphone.
Im Endeffekt ist es so, wie Ailuros schon sagte: Wenn die Leistung bei einem A15 in die Regionen von Kabini bzw. Jaguar-Kernen mit anständiger Taktrate gebracht werden soll, wird auch der Verbrauchsvorteil zumindest zum größten Teil dahin sein. Und 64Bit fehlen auch noch.

Ailuros
2013-03-16, 18:54:31
Spannend ist da die Aussage, daß Tegra4 im low power mode bei 845 MHz bei single-thread Last (läuft dann eigentlich der Stromsparkern?) 670 mW verbrauchen soll. Will sich irgendwer ausmalen, was das Ding bei 1,9 GHz (mit dann vermutlich deutlich höherer Spannung) auf allen 4 Kernen zieht? :rolleyes:
Die gehen davon aus, daß bei 845MHz 0,8V anliegen, für 1,9GHz 1,0V, ist aber nur eine Vermutung, der HPL-Prozeß verträgt auch locker 1,1V. Tja, ein A15 ist halt alles andere als wirklich stromsparend. Der Exynos5250 mit dual A15@1.7GHz ist bei Volllast auch ständig am Throtteln (sogar im Tablet!) und paßt in kein Smartphone.

Pardon monsieur aber wir nicht Pullover stricken im relevanten thread: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9695266&postcount=2488

;)

***edit: sonst insgesamt wird von ARM ein big.LITTLE config fuer A15/Eagle empfohlen. Entweder 2+2, 4+4 usw. wobei dann die A7 Spar-cores zwar bescheidenere Leistung liefern als die A15 cores, sparen aber auch im Vergleich zu den letzteren tonnenweise die area und Stromverbrauch. Wie im link oben: wenn es stimmt dass Samsung's Exynos5410 4*A15@1.2GHz + 4*A7@1.6GHz (SGX544MP3@480MHz) gleichzeitig je nach Markt gegen Qualcomm's S600 (quad Krait@1.89GHz, Adreno320@480MHz) fuer das GalaxySIV smartphone gestellt wird muesst Ihr Euch schon eine ziemlich komplizierte Formel ausdenken um ein 4+4 big.LITTLE gegen einen quad Krait mit asynchronen Frequenzen zu vergleichen.

Watson007
2013-03-17, 17:18:18
NVidia macht die Leistung der PS4 herunter:

http://www.4players.de/4players.php/spielinfonews/PC-CDROM/457/2130365/nVidia%7CPlayStation_4_Sony_bot_zu_wenig_Geld_PS4_sei_vergleichbar_mit_Low-End-PC.html

NVidia sollte besser die Klappe halten, sie machen sich so derzeit unsympathisch.

Finch
2013-03-17, 17:23:28
NVidia, der schlechte Verlierer.

Crazy_Bon
2013-03-17, 17:50:04
Der Vergleich mit einer GTX680 ist auch unangemessen, wie will man die in einem kleinen kompakten Gehäuse ausreichend und einigermaßen leise kühlen? Auch wenn sie die Performance/Watt gestiegen haben, soll die PS4 mit einer Herdplatte daher kommen? ;)

G 80
2013-03-17, 19:07:17
100 % der Aussage sind unosay? :freak:

Alleine schon der PC wird vorbeiziehen -orly?- ... leider nicht so schnell wie sie glauben wenn sie weiter diese Preise verlangen, Mr. Obvious. :ubash3:

Watson007
2013-03-17, 19:10:47
ich finds gut dass sich die Konsolen so stark an die PCs annähern, nur so werden Big-Budget-Produktionen für viele Entwickler finanzierbar. Erinnert mich an den Umstieg Apples von PowerPC auf x86.

Außerdem gut finde ich dass Sony in der PS4 einen eigenen Chip reinsteckt für die ganzen Software-Updates, damit die im Standby laufen können. Die ständige Updaterei geht mir auf den Sack bei der PS3, außerdem sind dann vielleicht die Server auch nicht mehr so oft überlastet bei Sony.

Matrix316
2013-03-17, 19:23:14
Wozu braucht eine Konsole überhaupt Softwareupdates? Kann mich beim Atari VCS, Nintendo NES, Super Nintendo, Playstation 1 oder Nintendo 64 nicht dran erinnern jemals ein Update gefahren zu haben. Die Kisten sollen Games abspielen und fertig.

schreiber
2013-03-17, 19:25:10
Naja, 75% der Konsolen hängen ja auch nie am Internet. Scheint ohne zu gehen.

aufkrawall
2013-03-17, 19:25:16
DRM?

G 80
2013-03-17, 19:27:49
DRM?

That!


Außerdem irgend ein MultimediaZeugs für das man dann aber Internet braucht, also die Konsole eh am Internet hängen dürfen muss.

Felixxz2
2013-03-17, 19:31:11
Wozu braucht eine Konsole überhaupt Softwareupdates? Kann mich beim Atari VCS, Nintendo NES, Super Nintendo, Playstation 1 oder Nintendo 64 nicht dran erinnern jemals ein Update gefahren zu haben. Die Kisten sollen Games abspielen und fertig.

Wofür braucht ein aktuelles Auto Sicherheitsgurte? Ist doch früher auch ohne gegangen....sinnloser Vergleich.....

Damals gab es auch weder Internet noch überhaupt eine richtige Systemsoftware. Die ganzen Medien- und Internetzusatzangebote wollen ja schließlich in ner Hauptsoftware verpackt sein und die braucht nunmal Updates für neue Funktionen etc.

Patches für Spiele kann man kritisch sehen, aber wenn das Spiel von Anfang an fehlerfrei läuft und Patches nur für neue Funktionen, Balancing etc. genutzt werden ist das doch auch nur positiv.

Crazy_Bon
2013-03-17, 19:58:37
Wozu braucht eine Konsole überhaupt Softwareupdates? Kann mich beim Atari VCS, Nintendo NES, Super Nintendo, Playstation 1 oder Nintendo 64 nicht dran erinnern jemals ein Update gefahren zu haben. Die Kisten sollen Games abspielen und fertig.
Updates gab es auch auf Retrokonsolen, nur gab es nicht die Möglichkeiten wie heute. Da hat man die Spiele vom Handel genommen und gegen eine neuere Version ersetzt, die z.B. durch ein Bug unspielbar waren.
Dass Spiele früher nicht fehlerfrei waren, trotz ihren für heute sehr geringen Programmieraufwand, zeigt doch immer wieder der AVGN.

xxxgamerxxx
2013-03-17, 21:02:44
Wozu braucht eine Konsole überhaupt Softwareupdates? Kann mich beim Atari VCS, Nintendo NES, Super Nintendo, Playstation 1 oder Nintendo 64 nicht dran erinnern jemals ein Update gefahren zu haben. Die Kisten sollen Games abspielen und fertig.

Schöner Spruch. Wende den mal auf Handys an.

Matrix316
2013-03-17, 21:08:16
Schöner Spruch. Wende den mal auf Handys an.
Aber im Gegensatz zu einer PS3 oder so, habe ich nicht jeden zweiten Tag ein Systemupdate, sondern nur 1 Mal im Jahr oder so. *g* Außerdem will ich bei einem Smartphone neue Updates und neue Funktionen, aber eine Konsole sollte IMO von Anfang an funktionieren.

Patches OK, aber wenn ein Spiel nicht starten kann, weil die Systemsoftware aktualisiert werden soll ist ziemlich nervig. Vor allem, wenn man eine Konsole nicht jeden Tag regelmäßig nutzt.

PrefoX
2013-03-18, 15:38:01
Aber im Gegensatz zu einer PS3 oder so, habe ich nicht jeden zweiten Tag ein Systemupdate, sondern nur 1 Mal im Jahr oder so. *g* Außerdem will ich bei einem Smartphone neue Updates und neue Funktionen, aber eine Konsole sollte IMO von Anfang an funktionieren.

Patches OK, aber wenn ein Spiel nicht starten kann, weil die Systemsoftware aktualisiert werden soll ist ziemlich nervig. Vor allem, wenn man eine Konsole nicht jeden Tag regelmäßig nutzt.
also sollte ein handy nicht von anfang an funktionieren? das is doch quatsch...

entweder brauchen Handys UND Konsolen updates/patches oder nicht.

Mr.Magic
2013-03-18, 15:59:08
Patches OK, aber wenn ein Spiel nicht starten kann, weil die Systemsoftware aktualisiert werden soll ist ziemlich nervig. Vor allem, wenn man eine Konsole nicht jeden Tag regelmäßig nutzt.

Bei der 360 sind die Kopierschutz-Updates mit auf der DVD. Teilweise gibt es noch kosmetische Dash-Änderungen und/oder neuen Funktionen. Bei einem Update wurde auch mal die Laufwerksfirmware aktualisiert, um die Firmwarehacks zu löschen.

Deinorius
2013-03-19, 10:36:12
Aber im Gegensatz zu einer PS3 oder so, habe ich nicht jeden zweiten Tag ein Systemupdate, sondern nur 1 Mal im Jahr oder so. *g*


Jeden zweiten Tag... aha. :rolleyes:

Iruwen
2013-03-19, 13:23:36
Und wenns mal eins gibt dauert das in der Regel einen Bruchteil der Zeit die ein PS3 Firmwareupdate benötigt.

PrefoX
2013-03-20, 08:23:49
Und wenns mal eins gibt dauert das in der Regel einen Bruchteil der Zeit die ein PS3 Firmwareupdate benötigt.
woran das wohl liegen mag? vllt weils auch deutlich kleiner ist hm?...

ihr müsst die doch net runterladen, wo isn das prob?

Iruwen
2013-03-20, 08:38:35
kA, ich muss auch Windows Updates nicht runterladen, wo issn da das Problem? Nur dass man sich auf der PS3 dann leider nicht mehr im PSN anmelden kann.

pixelguy
2013-03-20, 18:12:08
Angebliche Bilder aus dem Durango XDK aufgetaucht: http://www.golem.de/news/naechste-xbox-angebliche-bilder-aus-dem-durango-xdk-aufgetaucht-1303-98297.html

Akkarin
2013-03-20, 19:07:57
Wie viel werden denn die chips in etwa für AMD kosten ?

time_me
2013-03-20, 22:49:47
Wie viel werden denn die chips in etwa für AMD kosten ?

Meinst du die Entwicklungskosten? Das wird dir wohl niemand außer AMD selbst sagen können. Zu den Preisen für Sony wird hier über um 60$ geredet: http://blogs.barrons.com/techtraderdaily/2013/03/18/amd-macquarie-ups-to-buy-bad-pc-market-notwithstanding/

Akkarin
2013-03-20, 22:58:02
Meinte die reinen Herstellungskosten, also wieviel sie an TSMC/Glofo (?) bezahlen müssen. Der Beitrag bezieht sich eigentlich auf einen inzwischen verschobenen posts in dem es um diese 60$ ging.

Man müsste die kosten doch eigentlich recht gut abschätzen können oder ? Schließlich ist die Größe ungefähr bekannt und wie viel die Foundrys für Chips dieser größe verlangen müsste doch auch grob bekannt sein ?

Gipsel
2013-03-20, 23:41:50
Ich habe mal die Zahl von ~7000$ für einen kompletten 300mm Wafer bei TSMC für die 28nm Node gehört. Natürlich variiert das mit dem genau benutzten Prozeß (LP ist am billigsten, HPM am teuersten) und der benutzten Anzahl und Auflösung der Metal-Layer, aber das taugt vielleicht als Richtgröße. Das ergibt dann reine Waferkosten von etwa 10$ pro 100mm². Yields wird man versuchen bei 80%+ zu halten (eher sogar 90%+, deswegen auch redundante CUs und moderater Takt), dazu kommen dann noch Dicing, Test und Packaging, aber für einen 300mm²-Chip könnte man, wenn es gut läuft, mit ~40-45$ reinen Herstellungskosten hinkommen (sinkt etwas über die Zeit).

Aber ein Verkaufspreis von 60$ wäre da schon knapp, solange der Kunde (MS, Sony) nicht noch ein paar Startup-Kosten übernimmt.

Käsetoast
2013-03-21, 11:07:29
Warum sich jetzt schon so echauffieren? Von der PS4 wurde auch behauptet sie würde Always Online verlangen etc. pp und am Ende hat sich das als heiße Luft erwiesen. Ich denke das wird auch bei der nächsten XBox der Fall sein - schon alleine weil da jetzt Zugzwang herrscht...

Gouvernator
2013-03-21, 11:12:04
Der Vergleich mit einer GTX680 ist auch unangemessen, wie will man die in einem kleinen kompakten Gehäuse ausreichend und einigermaßen leise kühlen? Auch wenn sie die Performance/Watt gestiegen haben, soll die PS4 mit einer Herdplatte daher kommen? ;)
Warum auch nicht? Alugehäuse quasi als einzige Alu- oder Kupferrippe... Technisch wohl kein Problem. Nur wie das immer ist, spart Sony und andere Hersteller bereits an Plastikdicke und alles was über ein 40mm dünnes, lautes Lüfter hinausgeht ist bereits überteuerte "NASA"-Technologie... Ich denke viele betrachten eine Heimkonsole noch immer als Spielzeug ala NES und nicht als eine HighEnd Maschine.

Ailuros
2013-03-21, 11:18:08
Ich habe mal die Zahl von ~7000$ für einen kompletten 300mm Wafer bei TSMC für die 28nm Node gehört. Natürlich variiert das mit dem genau benutzten Prozeß (LP ist am billigsten, HPM am teuersten) und der benutzten Anzahl und Auflösung der Metal-Layer, aber das taugt vielleicht als Richtgröße. Das ergibt dann reine Waferkosten von etwa 10$ pro 100mm². Yields wird man versuchen bei 80%+ zu halten (eher sogar 90%+, deswegen auch redundante CUs und moderater Takt), dazu kommen dann noch Dicing, Test und Packaging, aber für einen 300mm²-Chip könnte man, wenn es gut läuft, mit ~40-45$ reinen Herstellungskosten hinkommen (sinkt etwas über die Zeit).

Aber ein Verkaufspreis von 60$ wäre da schon knapp, solange der Kunde (MS, Sony) nicht noch ein paar Startup-Kosten übernimmt.

Am Anfang ja; heutzutage kostet ein HP wafer um die 6k.

Crazy_Bon
2013-03-21, 11:38:53
Mit diesem "Always On, always connected" sehe ich noch keinen dringenden Onlinezwang, sondern liest sich aus der Durango XDK wie ein Feature, die schon die Nintendo Wii bot.
Die alte Wii konnte auch im Ruhemodus eine permanente Verbindung zu den Servern von Nintendo halten und somit rund um die Uhr Nachrichten und Softwareaktualisierungen empfangen, das äusserte sich durch ein blaues Blinken des Disc-Slots.

Sven77
2013-03-21, 11:42:19
Selbiges macht die PS4 ja auch.. das ist ein Feature und keine Gängelung

MartinB
2013-03-21, 11:45:47
Das Feature ist doch echt sinnvoll. Vorallem wenn man bedenkt das Microsoft wie auch Sony groß ins Moviestreaming einsteigen will. Da kann die Box dann im "StandBy" mal schnell die 50GB BluRay runterladen. Selbiges gilt auch für Spiele.

Watson007
2013-03-21, 11:48:39
was passiert eigentlich mit der WiiU jetzt? Wird man den Nachfolger vorziehen und bereits in 2-3 Jahren präsentieren?
Von den Verkaufszahlen ist die WiiU ja ein ziemlicher Flopp, aber vielleicht wird es ja doch noch was....

tobor
2013-03-21, 12:16:18
was passiert eigentlich mit der WiiU jetzt? Wird man den Nachfolger vorziehen und bereits in 2-3 Jahren präsentieren?
Von den Verkaufszahlen ist die WiiU ja ein ziemlicher Flopp, aber vielleicht wird es ja doch noch was....

Die "richtigen" Titel wie Zelda sind doch noch gar nicht für die Konsole erschienen. Wenn die, verbunden mit einer überfälligen Preissenkung nicht die Wende bringen, könnte eine neue Konsole durchaus in ein paar Jahren erschienen. Oder aber Nintendo zieht sich aus dem Geschäft mit stationären Konsolen zurück.

THEaaron
2013-03-21, 12:25:37
was passiert eigentlich mit der WiiU jetzt? Wird man den Nachfolger vorziehen und bereits in 2-3 Jahren präsentieren?
Von den Verkaufszahlen ist die WiiU ja ein ziemlicher Flopp, aber vielleicht wird es ja doch noch was....

Die Frage taucht regelmäßig auf und ich kann sie nicht verstehen. Es wird wie bei der aktuellen Gen sein. Die richtigen Spiele kommen auf PS4/X720 und die Wii U bekommt hingeklatschte Casual Ports die an allen Ecken und Kanten beschnitten sind. Wenn sich die Entwickler überhaupt die Mühe machen die WiiU mitzunehmen.

Iruwen
2013-03-21, 12:41:00
Ach so, weil die Wii keine richtigen Spiele hat und so ne? Trololo :rolleyes:

Knuddelbearli
2013-03-21, 13:03:10
Nintendo hat immer noch das mit riesigem Abstand größte und beste Franchise

Sven77
2013-03-21, 13:06:57
Nintendo hat immer noch das mit riesigem Abstand größte und beste Franchise

Geschmackssache ;)

Knuddelbearli
2013-03-21, 13:10:15
ich besitze seit gut 10 Jahren keine Nintendo Konsole mehr trotzdem ist das ihmo einfach fakt

Nightspider
2013-03-21, 13:13:36
Gibts was Neues in Hinsicht auf SSD / HDD die in PS4 und XboxNext verbaut werden?
Es würde ja Sinn machen beides zu verbauen. SSD für OS und häufig benötigte Daten mit ~32-64GB und eine 512GB HDD dazu.
Wäre natürlich toll wenn man beides erweitern oder nur durch SSDs austauschen kann.

Deinorius
2013-03-21, 13:41:05
Zu teuer.

Gut möglich, dass eine Mini-SSD verbaut wird, auf welcher sich nur das OS befindet. Aber diese wird IMHO sicher nicht groß. Keine 20 GB, wenn überhaupt.

Ich stelle es mir dann aber schwierig vor, die richtige Größe auszuwählen. Immerhin sollte es groß genug sein, um damit zumindest 5 Jahre über die Runden kommen zu können und nicht zu viel, als dass es zu teurer werden würde.

Nightspider
2013-03-21, 14:44:46
Selbst als Konsument zahlst du mittlerweile nur noch 50 Cent pro Gigabyte für eine SSD.
Wenn Sony oder MS für die Produktion paar Petabyte NAND-Flash bestellen kommen die sicherlich auch unter 50 Cent pro Gigabyte. Da wären 32-64GB bei weitem nicht zu teuer, imo.
Wenn das Ganze aber erweiterbar ist, würden natürlich auch Anfangs nur 16GB reichen. Dann könnte jeder nach Belieben 256GB oder mehr nach paar Jahren nachrüsten.

Überhaupt wäre es toll wenn man jedes Spiel komplett auf die HDDs kopieren könnte. Schließlich wird man ja mit Sicherheit auch Spiele Online kaufen können, die man dann auch zu 100% auf der Platte liegen hat.

Deswegen bin ich mir sicher, das die NextGen Konsolen auch HDDs an Bord haben werden.

Deinorius
2013-03-21, 14:48:23
Natürlich werden die Konsolen IMO eine HDD besitzen. Worauf soll man sonst die ganzen Medien und Spiele abspeichern können? :|

dildo4u
2013-03-21, 14:49:38
Wird nur ne normale Platte sein,daher werden ja 8GB verbaut damit das OS immer im Ram ist,die werden niemals komplett für Games genutzt minium 1GB wird's für OS und die Apps reserviert.Bei Sony geht das Gerücht um das das OS selber 512mb belegt.

Auf der PS4 Konferenz hieß es einfach nur das ne riesige Platte verbaut wird was SSD unwahrscheinlich macht,schon ne normale Platte ist x fach schneller als das neue Blu ray Laufwerk.Also obwohl die Datenmengen wesentlich größer sind,werden die Ladezeiten vermutlich besser als bei der PS3.Man geht im Prinzip von 9MB/Sec von Blu Ray 2X zu 100MB/Sec bei einer normalen 2.5 HDD.Vermutlich wird beim zocken von Blu Ray installiert also dürften die Ladezeiten beim zweiten Start des Games massiv sinken.

krötenfresse
2013-03-21, 17:42:46
was passiert eigentlich mit der WiiU jetzt? Wird man den Nachfolger vorziehen und bereits in 2-3 Jahren präsentieren?
Von den Verkaufszahlen ist die WiiU ja ein ziemlicher Flopp, aber vielleicht wird es ja doch noch was....
wer sagt, dass überhaupt noch ein nachfolger kommt? :|

und mit was für einem supa dupa sexy controller müsste dieses gerät dann daherkommen,
damit die leute dann den (überteuerten) nachfolger auch tatsächlich kaufen?

Hübie
2013-03-21, 17:55:34
Die Wii U verkauft sich vielleicht momentan einfach nicht gut genug weil die A) keine Exklusivtitel hat welche ziehen, B) mittelprächtige Grafik auf Niveau der alten Generation hat und C) Besitzer einer Wii kaum Argumente finden das Teil für 300 Flocken zu kaufen.

Da gesellen sich wohl noch weitere Unterpunkte hinzu aber dass war doch auch zu erwarten oder? Nintendo braucht doch erst mal nix zu machen. Immerhin verdienen die mit der Konsole an sich schon Geld.

Watson007
2013-03-21, 18:00:44
wer sagt, dass überhaupt noch ein nachfolger kommt? :|

naja... nach dem gamecube sind die doch auch schon totgesagt worden.... die dürften mit der Wii1 genug Geld gesammelt haben

TheGoD
2013-03-21, 19:18:12
Die Wii U verkauft sich vielleicht momentan einfach nicht gut genug weil die A) keine Exklusivtitel hat welche ziehen, B) mittelprächtige Grafik auf Niveau der alten Generation hat und C) Besitzer einer Wii kaum Argumente finden das Teil für 300 Flocken zu kaufen.

Da gesellen sich wohl noch weitere Unterpunkte hinzu aber dass war doch auch zu erwarten oder? Nintendo braucht doch erst mal nix zu machen. Immerhin verdienen die mit der Konsole an sich schon Geld.
Ein weiterer Grund dürfte wohl auch die Tatsache sein, dass sich die erste Wii zwar gut verkauft hat, jedoch gefühlt sehr viele Besitzer nach dem die Faszination für die neuartige Eingabemethode nachgelassen hat nicht wirklich glücklich mit der Konsole waren. Grund hierfür waren ebenfalls die kaum vorhandene Unterstützung durch Drittanbietern sowie die im Vergleich zur Konkurrenz sehr schlechte Grafik.

Da sich Nintendo wieder dazu entschlossen hat eine technisch extreme unterlegene Konsole auf den Markt zu bringen und entsprechend keine durchgehend gute Unterstützung durch Fremdanbieter zu erwarten ist, wundert es meiner Meinung überhaupt nicht das sich die Konsole schlecht verkauft. Gerade da dieses Mal niemand durch den Controller beeindruckt sein dürfte (eher das Gegenteil wenn erkannt wird das kein kapazitiver Touchscreen Verwendung findet...)!

krötenfresse
2013-03-21, 19:40:29
Nintendo braucht doch erst mal nix zu machen. Immerhin verdienen die mit der Konsole an sich schon Geld.
und wie war das mit entwicklungskosten, die sie reinholen müssen?
naja... nach dem gamecube sind die doch auch schon totgesagt worden.... und dann kam die wii.

aber was soll in zukunft noch kommen? gedankensteuerung?
es muß doch erstmal einen grund geben, um überhaupt noch eine neue konsole zu bringen.

bei sony genügt bessere grafik als grund. und was soll nintendo machen?

robbitop
2013-03-22, 07:59:50
Nintendo hat noch die Chance, den Preis runterzusetzen und dafür zu sogen, dass mehr Titel kommen. Sowohl Exclusives als auch 3rd Party/Multis. Dann läuft das Ding sicherlich auch.

Ich persönlich finde die Idee mit dem Tablett sehr gut. Gibt nur, bis auf das Spielen ohne TV!, noch keine echte Killerapplikation dafür.
Ich finde es auch schade, dass man die Leistung der Konsole so extrem beschränkt hat. Da wäre mehr drin gewesen. Auch in dem TDP/Kostenbudget. Bzw mit leichter Erweiterung.

Crazy_Bon
2013-03-22, 10:36:19
Nintendo hat nur noch die Chance im Preis zu punkten und als Zweitkonsole zu etablieren. Zur Zeit ist sie einfach überteuert, das Portfolio unbeeindruckend.
Klar ist das Tablet eine tolle Idee, endlich kein Splitscreen bei Mario Kart, nur dieses Spiel gibt es auf der WiiU noch nicht. ;)
Und die Konkurrenz schläft nicht, MS baut bestimmt ihre SmartGlass-Technologie auf NextGen weiter aus und Sony hat die PS Vita als Trumpf im Ärmel, letztendlich wird Nintendos neuer Controller nichts besonderes mehr sein.

john carmack
2013-03-22, 10:49:41
Nintendo hat noch die Chance, den Preis runterzusetzen und dafür zu sogen, dass mehr Titel kommen. Sowohl Exclusives als auch 3rd Party/Multis. Dann läuft das Ding sicherlich auch.

Ich persönlich finde die Idee mit dem Tablett sehr gut. Gibt nur, bis auf das Spielen ohne TV!, noch keine echte Killerapplikation dafür.
Ich finde es auch schade, dass man die Leistung der Konsole so extrem beschränkt hat. Da wäre mehr drin gewesen. Auch in dem TDP/Kostenbudget. Bzw mit leichter Erweiterung.


Leistung wurde wohl begrenzt weil der TabletController so teuer ist.

Ohne Tablet hätte man bestimmt leistungsfähigere chips verbaut.

00-Schneider
2013-03-22, 10:53:30
Leistung wurde wohl begrenzt weil der TabletController so teuer ist.

Ohne Tablet hätte man bestimmt leistungsfähigere chips verbaut.


This.

Außerdem zahlt Nintendo aktuell bei jeder verkauften Konsole noch mit drauf, eine Preissenkung wird es dann wohl frühestens bei XBOX3/PS4-Release geben.

---------------------

Die Releasepolitik der Wii-U ist aktuell generell ein Witz. Wieso kommen aktuelle Multiplattformer nicht auf Wii-U? Kein Tomb Raider, Dead Space 3 oder Crysis 3, seriously?

Lightning
2013-03-22, 11:09:42
Die Releasepolitik der Wii-U ist aktuell generell ein Witz. Wieso kommen aktuelle Multiplattformer nicht auf Wii-U? Kein Tomb Raider, Dead Space 3 oder Crysis 3, seriously?

Eben. Und das liegt nicht an der Hardwareleistung. Dementsprechend stellt sich die Frage, ob mehr Hardwareleistung der Wii U überhaupt im Bezug auf zukünftige 3rd-Party-Titel geholfen hätte.

So richtig scheint das Nintendo einfach nicht zu interessieren, sonst würden sie da mehr investieren. Wobei die "Schuld" daran sicher auch bei den Publishern liegt. Allgemein eine seltsame Politik, lieber alte Titel zum Vollpreis neu zu verkaufen (Mass Effect 3 oder jetzt Deus Ex), und sich dann vermutlich noch über schlechte Verkaufszahlen zu wundern..

Nightspider
2013-03-22, 11:14:41
So einfach portieren lassen sich die Games auch nicht.
Die Spielen müssen für die Wii-U auf die sehr schwache CPU, die stärkere GPU und die kurzen CPU Latenzen angepasst werden.
Das geht auch nicht von Hand und ist bei manchen Titeln bestimmt auch schwierig zu lösen, wo der Code auf wenige Threads optimiert ist, die mehr Leistung verlangen. Da helfen dann auch keine Compute-Shader.
Die Portierung kostet einfach Geld und die Wii-U Verbreitung ist Gering. Dagegen kann man auf eine fest PS360 Basis aufbauen.

Nintendo kam mit der Wii-U einfach so später auf den Markt, das es sich für viele Entwickler wahrscheinlich einfach nicht lohnt zu portieren.

Matrix316
2013-03-22, 11:31:26
Crysis 3 auf der WIUU könnte mich sogar reizen, wenn man die Anzugfunktionen und Waffenfunktionen Live über den Touchscreen ändern könnte. Leider wird die Controllersteuerung für Ego Shooter nie so das wahre sein...

Nightspider
2013-03-22, 11:34:16
Bei dem CPU-Hunger von Crysis 3 wird es das niemals für die Wii-U geben.

Tomi
2013-03-22, 11:36:48
Die Releasepolitik der Wii-U ist aktuell generell ein Witz. Wieso kommen aktuelle Multiplattformer nicht auf Wii-U? Kein Tomb Raider, Dead Space 3 oder Crysis 3, seriously?
oder "Dead Island Riptide". Technisch eher kein Problem, der fehlende Port soll wohl an den Finanzen liegen. Sprich..bei der derzeitigen Minibasis der WiiU sowie den mehr als dürftigen Verkaufszahlen wäre ein Port ein finanzieller Griff ins Klo, denn man muss ja mind. das Tablet mit einbinden. Ähnliche Vorbehalte dürften wohl auch für die anderen Titel gelten. Kommt also wie erwartet..diesmal gibts keine Schluderports wie bei der Wii für die WiiMote, sondern gleich keine, obwohl diesmal die Technik kein Problem wäre.

Coda
2013-03-22, 11:39:03
Bei dem CPU-Hunger von Crysis 3 wird es das niemals für die Wii-U geben.
http://www.gamespot.com/news/crytek-explains-why-crysis-3-wii-u-had-to-die-6404763

fizzo
2013-03-22, 11:45:12
Bei dem CPU-Hunger von Crysis 3 wird es das niemals für die Wii-U geben.

Crysis 3 befand sich tatsächlich für die Wii U in Entwicklung, wie Crytek-CEO Cevat Yerli in einem Interview durchblicken ließ.

Crysis 3 befand sich auch für die Wii U in Entwicklung.Die 'Wii U'-Version soll nicht nur weit fortgeschritten, sondern auch nahezu fertig gewesen sein. Crysis 3 lief problemlos auf der Wii U.Nun stellt sich hier die Frage, wieso eine derartige Version bislang nicht angekündigt oder herausgebracht wurde.

http://www.gamona.de/games/crysis-3,wii-u-version-war-fast-fertig:news,2231798.html

edit. zu spät

robbitop
2013-03-22, 11:51:48
Leistung wurde wohl begrenzt weil der TabletController so teuer ist.

Ohne Tablet hätte man bestimmt leistungsfähigere chips verbaut.
Das ist die offensichtliche erklärung. Etwas kleines basierend auf Jaguar und GCN mit 50 % der Recheneinheiten der PS4 wären nicht wesentlich teurer gewesen.

Eben. Und das liegt nicht an der Hardwareleistung. Dementsprechend stellt sich die Frage, ob mehr Hardwareleistung der Wii U überhaupt im Bezug auf zukünftige 3rd-Party-Titel geholfen hätte.
Naaaajaaaa. Die WiiU ist fast eine Größenordnung langsamer als die PS4. Und die Grafikhardware ist eine DX Generation hinterher. Ein bisschen besser ist die Situation als bei der letzten Runde bei dieser Betrachtung. Ports dürften dennoch deutlich aufwändiger sein als PS4/Xbox /PC.

fizzo
2013-03-22, 12:06:03
Das ist die offensichtliche erklärung. Etwas kleines basierend auf Jaguar und GCN mit 50 % der Recheneinheiten der PS4 wären nicht wesentlich teurer gewesen.

Die Desingentscheidung war IMHO sicher auch der Abwärtskompatibilität geschuldet. Laut Criterion sieht es so aus:

...Tools and software were the biggest challenges by a long way... the fallout of that has always been the biggest challenge here," Idries reaffirms. "[Wii U] is a good piece of hardware, it punches above its weight. For the power consumption it delivers in terms of raw wattage it's pretty incredible. Getting to that though, actually being able to use the tools from Nintendo to leverage that, was easily the hardest part...."

http://www.eurogamer.net/articles/digitalfoundry-need-for-speed-most-wanted-wii-u-behind-the-scenes

Käsetoast
2013-03-22, 12:06:38
Das ist die offensichtliche erklärung. Etwas kleines basierend auf Jaguar und GCN mit 50 % der Recheneinheiten der PS4 wären nicht wesentlich teurer gewesen.
Das ist irgendwo die Frage. Ist das preislich denn nicht ähnlich wie bei der kommenden XBox mit eingebautem Kinect, die dann aller Wahrscheinlichkeit nach auch über eine Festplatte verfügen wird, die der WiiU ebenfalls fehlt? Auch gibt es ja vollwertige Tablets schon für den Endkunden im zweistelligem Bereich - ich mag da also an unglaublich hohe Kosten für den kleinen resistiven Screen mit ein paar Knöpfen nicht glauben. Selbst eine Ouya also Konsole plus Controller gibt's für 99$ für den Endkunden. Im Endeffekt denke ich da eher, dass da die Vorstellungen vom Gewinn pro verkaufter Konsolenhardware dem Ganzen im Weg stand...

Was Jaguar angeht: Der dürfte wohl noch nicht fertig gewesen sein um zum gewünschten Zeitpunkt zu releasen. Ich hätte es aber schon schick gefunden, wenn man einen modernen 4Kern-IBM Prozessor mit einer Cape Verde Variante gekoppelt hätte. Für die Abwärtskompatibilität hätte man dann ja die ganze Wii in einem Chip zusammenfassen können, der dann auch nur in der Premium Version eingebaut ist, also in ähnlicher Weise wie Sony das bei der PS3 gehandhabt hat bis der PS2 Chip rausgenommen wurde. Wer auf Abwärtskompatibilität steht hätte sich halt die Premium Version der Wii U kaufen müssen und gleichzeitig wäre die Konsole an sich deutlich leistungsfähiger gewesen. Nachdem die kommenden Konsolen der Konkurrenz ja wahrscheinlich doch nicht sooo leistungsfähig werden (wenn die XBox wirkich nur so um die 800SPs hat, hätte man mit einer GPU auf Niveau einer HD7750 verdammt nahe dran gelegen bei gleichzeitig einem Jahr früher am Markt), ist das alles doch sehr ärgerlich hätte man doch mit minimal mehr Aufwand ziemlich gut an die Konkurrenz herankommen können...

tobor
2013-03-22, 12:31:05
Leistung wurde wohl begrenzt weil der TabletController so teuer ist.

Ohne Tablet hätte man bestimmt leistungsfähigere chips verbaut.

So viel kann das auch nicht kosten. Billigtablets kosten für den Endkunden kaum mehr als 100 Euro und die haben auch noch Cpus und Grafikeinheit inklusive Arbeitsspeicher verbaut.(Produktionskosten 30-40 Dollar)
Außerdem Multitouch was das Wii Tablet eben nicht kann.

robbitop
2013-03-22, 12:50:36
Die Desingentscheidung war IMHO sicher auch der Abwärtskompatibilität geschuldet. Laut Criterion sieht es so aus:

Iwo - der eine kleine PPC vom Wii. Der ist verschnwindend klein auf 28 nm. Der hätte quasi "gratis" in den SoC gepasst.


Was Jaguar angeht: Der dürfte wohl noch nicht fertig gewesen sein um zum gewünschten Zeitpunkt zu releasen. Ich hätte es aber schon schick gefunden, wenn man einen modernen 4Kern-IBM Prozessor mit einer Cape Verde Variante gekoppelt hätte. Für die Abwärtskompatibilität hätte man dann ja die ganze Wii in einem Chip zusammenfassen können, der dann auch nur in der Premium Version eingebaut ist, also in ähnlicher Weise wie Sony das bei der PS3 gehandhabt hat bis der PS2 Chip rausgenommen wurde. Wer auf Abwärtskompatibilität steht hätte sich halt die Premium Version der Wii U kaufen müssen und gleichzeitig wäre die Konsole an sich deutlich leistungsfähiger gewesen. Nachdem die kommenden Konsolen der Konkurrenz ja wahrscheinlich doch nicht sooo leistungsfähig werden (wenn die XBox wirkich nur so um die 800SPs hat, hätte man mit einer GPU auf Niveau einer HD7750 verdammt nahe dran gelegen bei gleichzeitig einem Jahr früher am Markt), ist das alles doch sehr ärgerlich hätte man doch mit minimal mehr Aufwand ziemlich gut an die Konkurrenz herankommen können...
Ja waren sie schön blöd, 28 nm und Jaguar nicht abzuwarten. Das ist nichtmal 1 Jahr. Dafür geht aber hardwareseitig viel durch die Lappen. Vor allem haben sie von dem knappen Jahr Vorsprung null komma nichts.
4x Jaguar + ~Cape Verde hätte völlig gereicht. Mit dem gesparten Geld (kleinerer SoC, kleinerer Formfaktor, unaufwändigere Kühlung, kleineres NT etc) hätte man dieses einfache Tablet ganz sicher finanzieren können.

Der PPC hätte wohl für eine Abwärtskompatibilität gereicht IMO. Die Grafikhardware und den anderen Klimbim wäre sicherlich nicht so schwer gewesen zu emulieren.

Coda
2013-03-22, 13:47:10
Jaguar geht ja nicht wegen Kompatibilität zur Wii.

john carmack
2013-03-22, 14:18:06
Das ist die offensichtliche erklärung. Etwas kleines basierend auf Jaguar und GCN mit 50 % der Recheneinheiten der PS4 wären nicht wesentlich teurer gewesen.


kann schon sein - aber jaguar ist ja noch nicht mal released und die WiiU schon lang verfügbar.
Wer weiß warum Nintendo 2012 releasen wollte?!?!

Jaguar geht ja nicht wegen Kompatibilität zur Wii.

das kommt noch dazu...

So viel kann das auch nicht kosten. Billigtablets kosten für den Endkunden kaum mehr als 100 Euro und die haben auch noch Cpus und Grafikeinheit inklusive Arbeitsspeicher verbaut.(Produktionskosten 30-40 Dollar)
Außerdem Multitouch was das Wii Tablet eben nicht kann.

jo... und ein PS3/PS4/360 Controller kostet dann die Hälfte? Vielleicht weniger?

ganz schnell könnte man 15€-25€ in bessere Chips investieren...

dildo4u
2013-03-22, 14:20:27
kann schon sein - aber jaguar ist ja noch nicht mal released und die WiiU schon lang verfügbar.
Wer weiß warum Nintendo 2012 releasen wollte?!?!
Sie mussten Releasen,Wii ist schon länger auf Talfahrt gewesen,und vermutlich haben sie sich versprochen einiges zu verkaufen bevor die neuen Konsolen kommen.

john carmack
2013-03-22, 14:23:43
nunja... jedenfalls kann man schon behaupten das die WiiU nicht ganz die Zielgruppe anspricht wie es Sony und MS tun.

Finch
2013-03-22, 14:25:10
welche denn? Die Haupt Wii Zielgruppe jedenfalls nicht.

dildo4u
2013-03-22, 14:28:09
nunja... jedenfalls kann man schon behaupten das die WiiU nicht ganz die Zielgruppe anspricht wie es Sony und MS tun.
Die spricht ne Zielgruppe an die nun auf Tabelt und Handy zocken,der Hype wie um die Zappelsteuerung können sie nich mehr erzeugen.Jedenfalls wird kaum besser werden wen die Konkurrenz dazu kommt.

robbitop
2013-03-22, 14:34:29
Jaguar geht ja nicht wegen Kompatibilität zur Wii.
Deshalb ja noch den Wii PPC mit in den SoC nehmen. Der dürfte vergleichsweise winzig sein, so dass der noch mit "unter" kommt, ohne groß das Transistorbudget zu beeinflussen.

TheGoD
2013-03-22, 14:39:09
nunja... jedenfalls kann man schon behaupten das die WiiU nicht ganz die Zielgruppe anspricht wie es Sony und MS tun.
Ich würde eher sagen das die Wii-Sports Zielgruppe eher auf die Kinect setzen wird, da dieses aktuell bereits präzise genug ist und der ganze Körper genutzt werden kann.

fizzo
2013-03-22, 14:52:05
welche denn? Die Haupt Wii Zielgruppe jedenfalls nicht.

IHMO genau diese. Da die komplette Peripherie (inkl. Spielstände) mitübernommen werden kann, sind die 100 Mio Wii-User potentielle Kunden. Nicht um sonst wurde so viel Wert auf eine 100%ige Abwärtskompatibilität gelegt. Dazu versucht man natürlich noch ein paar Coreuser abzugreifen - Bayonetta 2 ahoi!

dildo4u
2013-03-22, 14:54:27
Diese Gruppe kommt nich zu den Konsolen zurück egal zu welchem Hersteller.

Coda
2013-03-22, 15:01:13
Deshalb ja noch den Wii PPC mit in den SoC nehmen. Der dürfte vergleichsweise winzig sein, so dass der noch mit "unter" kommt, ohne groß das Transistorbudget zu beeinflussen.
Ich fürchte das dürfte einen ziemlichen Aufwand bedeuten den an das gleiche Speicherinterface zu bekommen mit gleichen Latenzen etc.

robbitop
2013-03-22, 15:04:10
Tja wenn's nicht geht, geht's nicht. Die Frage ist immer, was Abwärtskompatibilität wert ist. Sony und MS pfeifen drauf. Kann also nicht soo wichtig sein. Ab und an muss man mal alte Zöpfe abschneiden.

AnarchX
2013-03-22, 15:10:22
Wenn man sich anschaut wie Nintendo in neueren Wii Revisionen Kompatibilität und Features streicht, dann basiert die Entscheidung für den 3C-PPC vielleicht gar nicht primär auf der Rückwärtskompatibilität. :freak:

Mit einem Quadcore-Jaguar sollte man doch auch den 733MHz Broadway emulieren können?

00-Schneider
2013-03-22, 15:10:36
Allgemein eine seltsame Politik, lieber alte Titel zum Vollpreis neu zu verkaufen (Mass Effect 3 oder jetzt Deus Ex), und sich dann vermutlich noch über schlechte Verkaufszahlen zu wundern..


Das ist doch ein Teufelskreis. Wenn man keine Spiele bringt, verkauft sich auch die Konsole nicht, was wiederum dazu führt, dass sich die Entwicklung für Wii-U wegen der geringen Hardwarebasis nicht lohnt.

Lieber jetzt "investieren" und mehr Ports bringen, damit die Hardwarebasis steigt, und später die Gewinne einfahren, wenn die Hardwarebasis dann groß genug ist, und sich die Entwicklung auch lohnt.

Finch
2013-03-22, 15:24:07
IHMO genau diese. Da die komplette Peripherie (inkl. Spielstände) mitübernommen werden kann, sind die 100 Mio Wii-User potentielle Kunden. Nicht um sonst wurde so viel Wert auf eine 100%ige Abwärtskompatibilität gelegt. Dazu versucht man natürlich noch ein paar Coreuser abzugreifen - Bayonetta 2 ahoi!

Naja, also diese 100 Millionen solltest du wohl ein wenig differenzierter betrachten. Wieviele davon haben mit der Wii ihre erste und letzte Konsole gekauft? Bei wievielen staubt die Wii vor sich hin? Viele von deinen 100 Millionen wissen nichtmal von der Existenz der Wii U.

Und warum sollte die Wii Zielgruppe die abwärtskompatibilität wollen? Die haben doch schon eine verstaubte Wii unter dem TV.

Die Wii U besitzt garkeine richtige Zielgruppe.

Die Fuchtelsteuerung ist nur noch ein Mitbringsel und der neue Controller scheint ja nicht wirklich die Aufmerksamkeit zu bekommen, welche Nintendo sich wohl gewünscht hätte.
Es kommen kaum third Party spiele auf den Markt. Geschweige denn third Party exklusives. Selbst die Nintendo Kracher fehlen.
Das ganze wird dann mit einer Schwächen Hardware gewürzt. Das ist nichts halbes und nichts ganzes.


Achja Bajonetta 2..... Bravo und sonst?

dildo4u
2013-03-22, 15:28:19
Mal zu Hardware zurück wird MS jetzt die 7790 nutzen,müsste alles passen TDP kaum höher als 7770.

http://www.abload.de/img/msdmargi.jpg

AnarchX
2013-03-22, 15:34:25
Wenn dann wird MS eine Custom GPU auf GCN (C.I.) Basis nutzen.
Die PS4-APU zeigt doch, dass für eine Konsolendesign gerade im Bereich Computing mehr ACEs wohl von Nutzen sind. Aber selbst wenn es nur 768SPs bei Durango sind, ist wohl ein Dual-Front-End weiterhin sehr wahrscheinlich.

robbitop
2013-03-22, 16:32:35
Mit einem Quadcore-Jaguar sollte man doch auch den 733MHz Broadway emulieren können?
Ging aufgrund eines exotischen Features nicht.

oids
2013-03-22, 16:40:53
WiiU ist jetzt schon Tod:

http://www.games.ch/wii-u/news/verkaeufe-sinken-31058.php

Deinorius
2013-03-22, 17:01:30
WiiU ist jetzt schon Tod:

http://www.games.ch/wii-u/news/verkaeufe-sinken-31058.php


Wie werden denn bitte die PC-Verkäufe genau aufgelistet? :ugly:
Im Vergleich zur Wii U verkaufen sich Wii, NDS und 3DS ja wie geschnitten Brot.

Lightning
2013-03-22, 17:06:07
Naaaajaaaa. Die WiiU ist fast eine Größenordnung langsamer als die PS4. Und die Grafikhardware ist eine DX Generation hinterher. Ein bisschen besser ist die Situation als bei der letzten Runde bei dieser Betrachtung. Ports dürften dennoch deutlich aufwändiger sein als PS4/Xbox /PC.

Darum ging es mir doch gar nicht. Die Wii U bekommt oft nichtmal PS3-/360-Ports, obwohl die Hardware dafür problemlos reichen würde. Sprich: Es wird so und so (meist) nicht portiert, egal wie groß der Abstand zur PS4 ist.

Windi
2013-03-22, 17:32:34
Nintendo hat einfach vollkommen aufs falsche Pferd gesetzt.

Der 2.Bildschirm wird kaum richtig genutzt, höchstens als Inventar oder Karte. Beim Multiplayer spielt einer am 50" Fernseher und der andere auf dem Minidisplay? -Nee, nicht wirklich.
Bei Spielekonzepten die exzessiv den Bildschirm nutzen ist ein großes Tablet, das per App angebunden wird, wahrscheinlich besser.
Das hat den Controller nur unnötig teuer gemacht und klaut auch noch unnötig Rechenleistung des Grafikchips.
Casuals kann man damit auch nicht anlocken, die haben für Party-Spiele schon längst eine Wii und für zwischendurch ein Smartphone und Tablet.

Mit der Abwärtskompatibilität lockt man auch keinen mehr hinterm Ofen hervor. Stattdessen sorgt sie dafür, das so viele Kompromisse eingegangen werden mussten, das die CPU noch nicht mal mit der PS360 mithalten kann. Das erschwert nur die Portierung und vergrault die Publisher, was zu einer schwachen Spieleunterstützung führt.


Nintendo hätte wohl lieber warten sollen, um dann auch auf AMD zu setzen.
Ein Jaguar 4-Kerner mit etwas schwächerem Grafikchip und 4GB Speicher.
Dazu verlötet man billigen Flashspeicher und lässt die Festplatte weg (nachrüstbar über USB).
Ins Pakte kommt dann noch ein normales Gamepad und die Wiimote.

Vorteile:
-Portierungen sind einfach durch die ähnliche Hardware und das Gamepad.
-Durch die Wiimote sind weiterhin spezielle Spiele möglich, die sich von Standardspielen mit Gamepad deutlich unterscheiden.
-Kostet wohl nur die Hälfte von der PS4.

Knuddelbearli
2013-03-22, 17:38:00
also gerade das asynchrone spielen oder wie man das nennt finde ich bei der Wii einfach genial

Jim
2013-03-22, 18:22:11
Nintendo hat einfach vollkommen aufs falsche Pferd gesetzt.

Der 2.Bildschirm wird kaum richtig genutzt, höchstens als Inventar oder Karte. Beim Multiplayer spielt einer am 50" Fernseher und der andere auf dem Minidisplay? -Nee, nicht wirklich.
Der Multiplayer von ZombiU ist mit das genialste, was ich derart bisher gespielt habe. Schon mal getestet? Nee, nicht wirklich...

Bei Spielekonzepten die exzessiv den Bildschirm nutzen ist ein großes Tablet, das per App angebunden wird, wahrscheinlich besser.
Das hat den Controller nur unnötig teuer gemacht und klaut auch noch unnötig Rechenleistung des Grafikchips.

Ein Tablet kann man bei Weitem nicht so integrieren, wie den WiiU Controller. Was soll ich mit einem iPad anderes anstellen, als es als zusätzliche Anzeige, oder minderwertigen, unpräzisen Controller zu verwenden?

Casuals kann man damit auch nicht anlocken, die haben für Party-Spiele schon längst eine Wii und für zwischendurch ein Smartphone und Tablet.

Kaffeesatzleserei.

Mit der Abwärtskompatibilität lockt man auch keinen mehr hinterm Ofen hervor. Stattdessen sorgt sie dafür, das so viele Kompromisse eingegangen werden mussten, das die CPU noch nicht mal mit der PS360 mithalten kann. Das erschwert nur die Portierung und vergrault die Publisher, was zu einer schwachen Spieleunterstützung führt.

Ist das so? Die mangelnde Abwärtskompatibilität bei PS4 und XBox8 ist in meinen Augen eine Frechheit (war es schon bei der XBox360.)
Die WiiU ist nicht so schwach, wie man hier meint. Das Devkit hinkt noch ziemlich hinterher... sie kann deutlich mehr, als PS3 und XBox360.

Nintendo hätte wohl lieber warten sollen, um dann auch auf AMD zu setzen.
Ein Jaguar 4-Kerner mit etwas schwächerem Grafikchip und 4GB Speicher.
Dazu verlötet man billigen Flashspeicher und lässt die Festplatte weg (nachrüstbar über USB).
Ins Pakte kommt dann noch ein normales Gamepad und die Wiimote.

Nintendo setzt auf andere Schwerpunkte: mehr Multiplayer VOR dem Fernseher, weniger Restriktionen und ganz andere Spielarten sind durch die Controller möglich. WiiMote mit Kinect zu vergleichen zeugt nur von völliger Ahnungslosigkeit.
Es gibt super Spiele für die Wii trotz vorsintflutlicher Grafik. Wenn ich eine PS4 von der Grafik richtig ausnutzen will kostet es mehr Geld, als sich viele Studios derzeit leisten können dürften...


Vorteile:
-Portierungen sind einfach durch die ähnliche Hardware und das Gamepad.
-Durch die Wiimote sind weiterhin spezielle Spiele möglich, die sich von Standardspielen mit Gamepad deutlich unterscheiden.
-Kostet wohl nur die Hälfte von der PS4.

Die Portierungen sind nicht das Problem, wenn die HW grundsätzlich genug Power hat. Schau dir mal an, was auf der Wii noch so erschienen ist!
Mit Move hat Sony mittlerweile einen guten WiiMote Klon entwickelt.
Die WiiU wird wohl auch nur die Hälfte der PS4 kosten.
Wenn es drei Plattformen gibt, die sich kaum unterscheiden ist damit Niemandem wirklich geholfen.

Watson007
2013-03-22, 18:30:22
Wenn es drei Plattformen gibt, die sich kaum unterscheiden ist damit Niemandem wirklich geholfen.
[/LIST]

doch: den Spieleherstellern. Maximale Reichweite mit geringstem Aufwand zu erreichen ;)

Windi
2013-03-22, 18:55:34
Die Portierungen sind nicht das Problem, wenn die HW grundsätzlich genug Power hat. Schau dir mal an, was auf der Wii noch so erschienen ist!
Da die CPU aber anscheinend langsamer ist als bei der PS360, muss man bei der WiiU die GPU als Coprozessor einsetzen, was natürlich zusätzliche Entwicklungsarbeit bedeutet und die Portierung erschwert. Was wiederum zu einer schlechteren Multiport-Unterstützung führt und sich mal wieder in einer Spieleflaute darstellt.

Mit Move hat Sony mittlerweile einen guten WiiMote Klon entwickelt.
Der aber nicht standardmäßig dabei gelegt wird und nicht einmal ansatzweise die gleiche Verbreitung vorzuweisen hat.
Die WiiU wird wohl auch nur die Hälfte der PS4 kosten.
Aber auch nur weil man deutlich bei der Rechenleistung gespart hat.
Wenn es drei Plattformen gibt, die sich kaum unterscheiden ist damit Niemandem wirklich geholfen.
Wo unterscheidet sich die WiiU denn von der PS360?
Das ist doch nur der Touchscreen.
Würde Nintendo die Wiimote besser fördern, dann wäre die WiiU wirklich "anders".
So ist sie aber nur eine Standardkonsole, mit einem Standardgamepad, mit einem "kleinen" Extra.

Jim
2013-03-22, 20:16:14
Da die CPU aber anscheinend langsamer ist als bei der PS360, muss man bei der WiiU die GPU als Coprozessor einsetzen, was natürlich zusätzliche Entwicklungsarbeit bedeutet und die Portierung erschwert. Was wiederum zu einer schlechteren Multiport-Unterstützung führt und sich mal wieder in einer Spieleflaute darstellt.
Zu viele Annahmen, die in einer unglaubwürdigen Schlussfolgerung enden.
Wie gesagt, schau dir mal an, wozu die Wii fähig ist. Ich rede nicht von Grafik, sondern von Spielen!

Der aber nicht standardmäßig dabei gelegt wird und nicht einmal ansatzweise die gleiche Verbreitung vorzuweisen hat.

Du kannst davon ausgehen, dass er bei Sony dabei gewesen wäre, wenn die WiiU noch auf die WiiMote allein setzen würde. Ausserdem gibt es jetzt schon Millionen Bundles, die einen Move Controller beinhalten.

Aber auch nur weil man deutlich bei der Rechenleistung gespart hat.

So what?

Wo unterscheidet sich die WiiU denn von der PS360?
Das ist doch nur der Touchscreen.
Würde Nintendo die Wiimote besser fördern, dann wäre die WiiU wirklich "anders".
So ist sie aber nur eine Standardkonsole, mit einem Standardgamepad, mit einem "kleinen" Extra.

Die WiiMote ist bei der WiiU Pflicht, weil ohne Offline Multiplayer kaum möglich ist.
Und was unterscheidet eine Standardkonsole von einer Nicht-Standard Konsole?

john carmack
2013-03-22, 22:13:10
man hätte wenigstens die Chips der WiiU höher takten können.
Ein größeres Gehäuse und Kühler wäre für mich absolut vertretbar.

Bei der größe muss man aufpassen das man sie wiederfindet und nicht verliert :D

Deinorius
2013-03-22, 22:15:03
Die hätten besser drei Kerne eines aktuellen PPC Designs nehmen und für die Abwärtskompatibilität die Wii-CPU mitpacken sollen. Selbst unter 45 nm käme der eine Kern praktisch gratis mit.

dildo4u
2013-03-23, 12:39:04
Havok 2013 Teaser

http://youtu.be/cG3j7LjUr94

Deutlich weniger CPU Last wenn sich das auf die GPU Lösung übertragen lässt sollte es ein ordentlichen Sprung mit der PS4 geben.

Matrix316
2013-03-23, 12:44:23
Vielleicht ist die WiiU auch einfach zu kompliziert. ;) Ich hab gestern im MM mal kurz Mario gespielt und auf dem Controller war das gleiche Bild wie auf dem Fernseher zu sehen - nur wo kuck ich jetzt hin? Auf den TV? Auf den Controllerscreen? Verpasse ich was, wenn ich nur auf den einen schaue? Woher weiß ich, dass ich auf den Controller schauen muss? Hmmmm...:uponder: