Archiv verlassen und diese Seite im Standarddesign anzeigen : Konsolen ab 2011
Liszca
2008-06-09, 01:59:24
Es wird weiterhin PC Technik sein, die den Konsolen die Technik verleiht, aber es wird wieder spezieller werden.
wie meinst du das?
ich finde die prozessoren wie sie in xbox 360 & ps3 vorkommen schon etwas spezieller.
Eben.PowerPC im Otto-Normal-Haushalt?Wo denn bitte?
War doch im Mac verbaut bis Intel Einzug hielt...
wie meinst du das?
ich finde die prozessoren wie sie in xbox 360 & ps3 vorkommen schon etwas spezieller.
Sind sie aber nicht. Gut, sie haben einen PPC-Befehlssatz und sind massiv MT, aber Cell ist ja aber schonmal ein Flop gewesen. Die CPUs waren vllt. doch eher politische Entscheidungen als technische...
Letztendlich spielt der Befehlssatz aber eh keine Rolle. Wichtig ist, dass vor allem die XBox-CPU eher eine Lightversion der heutigen CPUs darstellt.
BlackBirdSR
2008-06-09, 07:43:53
Letztendlich spielt der Befehlssatz aber eh keine Rolle. Wichtig ist, dass vor allem die XBox-CPU eher eine Lightversion der heutigen CPUs darstellt.
Vergleiche mit Intels Atom auf µArch-Ebene wären mal interessant ;)
Letztendlich spielt der Befehlssatz aber eh keine Rolle. Wichtig ist, dass vor allem die XBox-CPU eher eine Lightversion der heutigen CPUs darstellt.
So so.Dafür leisten die aber eine ganze Menge,wenn man sich mal Star Wars Unleashed ansieht.Euphoria,Havok,DMM.Ganz erstaunlich,was so eine Lightversion so leisten kann.Wenn das stimmt,würde ich mich als Pc-Spieler ganz schön vera* vorkommen.:)
Ganz erstaunlich,was so eine Lightversion so leisten kann.
liegt eben daran, dass die cpu für spiele immer unwichtiger wird, auch am pc. die spiele die wirklich stark cpu-leistung brauchen, wie diverse strategiespiele oder flight simulator gibt es eh nur am pc.
liegt eben daran, dass die cpu für spiele immer unwichtiger wird, auch am pc. die spiele die wirklich stark cpu-leistung brauchen, wie diverse strategiespiele oder flight simulator gibt es eh nur am pc.
VideoGamer.com: I know that it was mentioned that there is no difference between the PS3 and Xbox 360 versions, but that sounds really processor intensive…
CS: It’s incredibly processor intensive!
http://360ambassador.com/2008/05/13/50/
http://360ambassador.com/2008/05/13/50/
für eine Xbox-CPU vielleicht, aber nicht für eine pc-cpu, vor allem hat man am pc für sowas ne X-fi.
für eine Xbox-CPU vielleicht, aber nicht für eine pc-cpu, vor allem hat man am pc für sowas ne X-fi.
Lol.Artikel gelesen?Wenn ja,dann wohl nicht verstanden.Als ob es da um Sound ginge.
So so.Dafür leisten die aber eine ganze Menge,wenn man sich mal Star Wars Unleashed ansieht.Euphoria,Havok,DMM.Ganz erstaunlich,was so eine Lightversion so leisten kann.Wenn das stimmt,würde ich mich als Pc-Spieler ganz schön vera* vorkommen.:)
Quark ;). Der PC-Prozessor löst diese Aufgaben als DualCore schnell genug meistens, die XBox hat einen TripleCore, ist SIMD-fähig und hat SMT. Bei der richtigen Programmierung ist die CPU nicht schwach, sie ist halt nur spezieller mit ihrem in-Order-Design. CPU-Light heißt nicht unbedingt PC-CPU in schwach, sondern eher PC-CPU in speziell. Aber weit weg ist das nicht mehr von der PC-CPU, die nächste Konsolengeneration wird denke ich wieder auf ein OoO-Dedign setzen.
Vergleiche mit Intels Atom auf µArch-Ebene wären mal interessant ;)
Intels Atom als Triple-Core-Variante würde sicher ebenfalls als XBox-CPU taugen :D. Vllt sehen wir ja demnächst sogar VIA-CPU-Technik in Konsolen. Halte ich für denkbar.
Intels Atom als Triple-Core-Variante würde sicher ebenfalls als XBox-CPU taugen :D. Vllt sehen wir ja demnächst sogar VIA-CPU-Technik in Konsolen. Halte ich für denkbar.
Ausgeschlossen.Wäre verherrend fürs Marketing.Es sei denn,Via gelingt es mit Hilfe Nvidias,in Zukunft eine konkurrenzfähige Destopcpu zu bauen(für Spiele)
X86 will ich eh nicht in Konsolen haben.Wenigstens dort sollten Cpus mit einer fortschrittlichen Architektur zum Einsatz kommen.Also PPC.
Was fürn verheerendes Marketing? Das möcht ich jetzt aber genauer wissen :D. Mit VIA könnte NV alles aus einer Hand für eine Konsole bieten - ich finde das ist beachtenswert. X86 ist nur ein Befehlssatz, sonst nichts. Ob jetzt PPC oder x64 genutzt wird ist sowas von Hupe für Entwickler und Kunden... Für Konsole würde eh die erweiterte Variante x64 genutzt. Zum Glück gehts im Konsolenmarkt nicht nach dem was du willst, sondern um andere Dinge :D.
Und
Wenigstens dort sollten Cpus mit einer fortschrittlichen Architektur zum Einsatz kommen.Also PPC.
bringt mich echt zum schmunzeln. Wer definiert welcher Befehlssatz was mit einer "fortgeschrittenen Architektur" zu tun hat? Das sind ja 2 Fehler in einem Satz :D.
1.) sind Befehlssatz und Architektur zwei grundverschiedene Dinge und 2.) haben PPC und x64 ihre Vor- und Nachteile. Da ist nix "fortschrittlicher". Aber ich seh schon, für dich ist ein G5 fortschrittlicher als ein K10 oder Nehalem ;D.
Was fürn verheerendes Marketing? Das möcht ich jetzt aber genauer wissen :D. .
Ganz einfach:Via=schlechte,leistungsschwache Billigcpu.
Zu den Cpus nur das:
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/november/intel_itanium_2_montvale/
Ganz einfach:Via=schlechte,leistungsschwache Billigcpu.
Ergänzung:In den Köpfen der meisten Leute jedenfalls.
Ganz einfach:Via=schlechte,leistungsschwache Billigcpu.
Zu den Cpus nur das:
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/november/intel_itanium_2_montvale/
Hauptsache was verlinkt... Bezug?... Außer einem unbegründeten Vorurteil kam da jetzt nix von dir. Die Leute wissen nix von VIA, die kenne mit Glück Intel ;D. Die interessiert einfach nicht, was da für ne Technik hinter ist. Das Marketing nennt überhaupt keine Hardwarekomponenten, das hat damit garnichts zu tun bei Konsolen.
Und die Hersteller interessieren nur Fakten. Ein C8 ist eine verdammt potente und sparsame CPU.
ThEgRaZe
2008-06-10, 18:00:17
Ganz einfach:Via=schlechte,leistungsschwache Billigcpu.
Also optimal für den Wii-Nachfolger
iceman.s
2008-06-10, 20:08:22
Hallo,
ich denke wir sehen den Nachfolger der 360 frühestens Ende 2010, wahrscheinlicher aber wohl Ende 2011. Die PS3 wohl auch erst Ende 2011 oder 2012 kommen. Bei Sony dürften wir zum ersten mal seit der PS1 wieder eine ausgewogene Konsole sehen.
PS2 & PS3 konnten ja ihr volles Potential nicht ausschöpfen, da sie Technologieträger für die Einführung der DVD und jetzt BluRay sind. Bei der PS2 waren die Fähigkeiten der GPU("Graphics Synthesizer") schon nicht mehr Uptodate beim launch. Und die PS3 haben sie bald noch mehr verpfuscht. Cell war nicht der große Wurf, ihn als CPU zu verwenden auch nicht intelligent , als Co CPU mit eigenem RAM in Ordnung, so wie es jetzt IBM gemacht hat, aber als alleinige CPU zu verwenden war halt dumm. Ich denke IBM & Toshiba hatten nie so was vor gehabt. Einen normalen PPC Dualcore + Cell, wäre besser gewesen. Die nächste fragwürdige Entscheidung, war die Verwendung eines nur 128 Bit breitem Speicherinterfaces zum Grafikspeicher und der „RSX“ an sich war auch nicht so toll. Mit einer besseren Zeitplanung seitens Sony, hätten sie wohl auch eine Art Hybrid G70/G80 GPU bekommen können. Als Bonus wäre etwas mehr Hauptspeicher auch nicht schlecht gewesen, schließlich verbraucht das PS3 OS auch ein paar MB(?30-50MB?).
Ich habe noch die kleine Hoffnung, das Sony vielleicht einen Torpedo auf den Bug von Microsoft feuern wird um deren Strategie etwas durcheinander zu wirbeln. Sobald die Chips auf 65nm umgestellt sind, könnten sie es ähnlich machen wie Microsoft bei der Elite, nur halt richtig und eine aufgebohrte PS3 raus bringen, die nicht zwingend 100% Hardware kompatibel ist. Dass sie so was im Prinzip können, hat man ja an der PSP gesehen. Bei dieser PS3+ könnten sie den Speicher vergrößern und eine andere GPU mit 256 Bit SI verwenden, da wohl kaum noch Hardware nah programmiert wird und eventuelle Probleme per Patch beseitigt werden können. Damit könnten sie schon viel erschlagen.
Um auf die nächste Next Gen zurück zu kommen. Da erwarte ich hauptsächlich, das alles Multi ist. Microsoft dürfte mit einem 4-5 GHz Quad – Okta PPC mit SMT auf POWER6 oder 7 Basis und Multi GPU antreten, also 2 oder 4 GPU Kerne pro Chip, auf R800 Basis. Ich hoffe mal, das sie UMA streichen werden und jeder seinen eigenen Speicher bekommen wird.
Sony dürfte wohl den Cell behalten, aber wohl nicht groß ausbauen. Sie werden vermutlich eine Dual, maximal Quad PPC CPU + einen Dual Cell verwenden. RSX2 wird wohl auf G100(DX11) Technik aufbauen mit 256 Bit GDDR5 Speicherinterface.
Beide dürften mit 2GB Hauptspeicher und 512-1024 GB Grafikspeicher ausgestattet werden, falls MS weiter auf UMA setzt, könnten es auch 4GB werden, Cell bekommt vielleicht seinen eigenen Speicher(512-1024MB). Beide sollten 4-Layer BR Laufwerke(100GB) bekommen und min. eine 120 GB Festplatte, wahrscheinlich eher 250GB.
Mehr fällt mir jetzt auch nicht weiter ein.
vor 10 jahren hat man auch viel geredet und vorhergesagt... :rolleyes:
The_Invisible
2008-06-12, 09:06:12
Hallo,
ich denke wir sehen den Nachfolger der 360 frühestens Ende 2010, wahrscheinlicher aber wohl Ende 2011. Die PS3 wohl auch erst Ende 2011 oder 2012 kommen. Bei Sony dürften wir zum ersten mal seit der PS1 wieder eine ausgewogene Konsole sehen.
PS2 & PS3 konnten ja ihr volles Potential nicht ausschöpfen, da sie Technologieträger für die Einführung der DVD und jetzt BluRay sind. Bei der PS2 waren die Fähigkeiten der GPU("Graphics Synthesizer") schon nicht mehr Uptodate beim launch. Und die PS3 haben sie bald noch mehr verpfuscht. Cell war nicht der große Wurf, ihn als CPU zu verwenden auch nicht intelligent , als Co CPU mit eigenem RAM in Ordnung, so wie es jetzt IBM gemacht hat, aber als alleinige CPU zu verwenden war halt dumm. Ich denke IBM & Toshiba hatten nie so was vor gehabt. Einen normalen PPC Dualcore + Cell, wäre besser gewesen. Die nächste fragwürdige Entscheidung, war die Verwendung eines nur 128 Bit breitem Speicherinterfaces zum Grafikspeicher und der „RSX“ an sich war auch nicht so toll. Mit einer besseren Zeitplanung seitens Sony, hätten sie wohl auch eine Art Hybrid G70/G80 GPU bekommen können. Als Bonus wäre etwas mehr Hauptspeicher auch nicht schlecht gewesen, schließlich verbraucht das PS3 OS auch ein paar MB(?30-50MB?).
Ich habe noch die kleine Hoffnung, das Sony vielleicht einen Torpedo auf den Bug von Microsoft feuern wird um deren Strategie etwas durcheinander zu wirbeln. Sobald die Chips auf 65nm umgestellt sind, könnten sie es ähnlich machen wie Microsoft bei der Elite, nur halt richtig und eine aufgebohrte PS3 raus bringen, die nicht zwingend 100% Hardware kompatibel ist. Dass sie so was im Prinzip können, hat man ja an der PSP gesehen. Bei dieser PS3+ könnten sie den Speicher vergrößern und eine andere GPU mit 256 Bit SI verwenden, da wohl kaum noch Hardware nah programmiert wird und eventuelle Probleme per Patch beseitigt werden können. Damit könnten sie schon viel erschlagen.
Um auf die nächste Next Gen zurück zu kommen. Da erwarte ich hauptsächlich, das alles Multi ist. Microsoft dürfte mit einem 4-5 GHz Quad – Okta PPC mit SMT auf POWER6 oder 7 Basis und Multi GPU antreten, also 2 oder 4 GPU Kerne pro Chip, auf R800 Basis. Ich hoffe mal, das sie UMA streichen werden und jeder seinen eigenen Speicher bekommen wird.
Sony dürfte wohl den Cell behalten, aber wohl nicht groß ausbauen. Sie werden vermutlich eine Dual, maximal Quad PPC CPU + einen Dual Cell verwenden. RSX2 wird wohl auf G100(DX11) Technik aufbauen mit 256 Bit GDDR5 Speicherinterface.
Beide dürften mit 2GB Hauptspeicher und 512-1024 GB Grafikspeicher ausgestattet werden, falls MS weiter auf UMA setzt, könnten es auch 4GB werden, Cell bekommt vielleicht seinen eigenen Speicher(512-1024MB). Beide sollten 4-Layer BR Laufwerke(100GB) bekommen und min. eine 120 GB Festplatte, wahrscheinlich eher 250GB.
Mehr fällt mir jetzt auch nicht weiter ein.
wenn man bedenkt wieviel heute auf der ps3 schon installiert wird und es sicher nicht weniger downloadcontent geben wird gehe ich mal min. von ner 1tb festplatte aus
mfg
Hallo,
ich denke wir sehen den Nachfolger der 360 frühestens Ende 2010, wahrscheinlicher aber wohl Ende 2011. Die PS3 wohl auch erst Ende 2011 oder 2012 kommen. Bei Sony dürften wir zum ersten mal seit der PS1 wieder eine ausgewogene Konsole sehen.
PS2 & PS3 konnten ja ihr volles Potential nicht ausschöpfen, da sie Technologieträger für die Einführung der DVD und jetzt BluRay sind. Bei der PS2 waren die Fähigkeiten der GPU("Graphics Synthesizer") schon nicht mehr Uptodate beim launch. Und die PS3 haben sie bald noch mehr verpfuscht. Cell war nicht der große Wurf, ihn als CPU zu verwenden auch nicht intelligent , als Co CPU mit eigenem RAM in Ordnung, so wie es jetzt IBM gemacht hat, aber als alleinige CPU zu verwenden war halt dumm. Ich denke IBM & Toshiba hatten nie so was vor gehabt. Einen normalen PPC Dualcore + Cell, wäre besser gewesen. Die nächste fragwürdige Entscheidung, war die Verwendung eines nur 128 Bit breitem Speicherinterfaces zum Grafikspeicher und der „RSX“ an sich war auch nicht so toll. Mit einer besseren Zeitplanung seitens Sony, hätten sie wohl auch eine Art Hybrid G70/G80 GPU bekommen können. Als Bonus wäre etwas mehr Hauptspeicher auch nicht schlecht gewesen, schließlich verbraucht das PS3 OS auch ein paar MB(?30-50MB?).
Ich habe noch die kleine Hoffnung, das Sony vielleicht einen Torpedo auf den Bug von Microsoft feuern wird um deren Strategie etwas durcheinander zu wirbeln. Sobald die Chips auf 65nm umgestellt sind, könnten sie es ähnlich machen wie Microsoft bei der Elite, nur halt richtig und eine aufgebohrte PS3 raus bringen, die nicht zwingend 100% Hardware kompatibel ist. Dass sie so was im Prinzip können, hat man ja an der PSP gesehen. Bei dieser PS3+ könnten sie den Speicher vergrößern und eine andere GPU mit 256 Bit SI verwenden, da wohl kaum noch Hardware nah programmiert wird und eventuelle Probleme per Patch beseitigt werden können. Damit könnten sie schon viel erschlagen.
Um auf die nächste Next Gen zurück zu kommen. Da erwarte ich hauptsächlich, das alles Multi ist. Microsoft dürfte mit einem 4-5 GHz Quad – Okta PPC mit SMT auf POWER6 oder 7 Basis und Multi GPU antreten, also 2 oder 4 GPU Kerne pro Chip, auf R800 Basis. Ich hoffe mal, das sie UMA streichen werden und jeder seinen eigenen Speicher bekommen wird.
Sony dürfte wohl den Cell behalten, aber wohl nicht groß ausbauen. Sie werden vermutlich eine Dual, maximal Quad PPC CPU + einen Dual Cell verwenden. RSX2 wird wohl auf G100(DX11) Technik aufbauen mit 256 Bit GDDR5 Speicherinterface.
Beide dürften mit 2GB Hauptspeicher und 512-1024 GB Grafikspeicher ausgestattet werden, falls MS weiter auf UMA setzt, könnten es auch 4GB werden, Cell bekommt vielleicht seinen eigenen Speicher(512-1024MB). Beide sollten 4-Layer BR Laufwerke(100GB) bekommen und min. eine 120 GB Festplatte, wahrscheinlich eher 250GB.
Mehr fällt mir jetzt auch nicht weiter ein.
wenn man bedenkt wieviel heute auf der ps3 schon installiert wird und es sicher nicht weniger downloadcontent geben wird gehe ich mal min. von ner 1tb festplatte aus
mfg
Weihnachten is aber noch nicht :|
Aquaschaf
2008-06-12, 11:16:41
Ergänzung:In den Köpfen der meisten Leute jedenfalls.
Ich denke das spielt bei einer Konsole fast überhaupt keine Rolle.
Hauptsache was verlinkt... Bezug?... Außer einem unbegründeten Vorurteil kam da jetzt nix von dir. Die Leute wissen nix von VIA, die kenne mit Glück Intel ;D. Die interessiert einfach nicht, was da für ne Technik hinter ist. Das Marketing nennt überhaupt keine Hardwarekomponenten,
Das muss ich den Cellhype nur eingebildet haben.:rolleyes:
Microsoft dürfte mit einem 4-5 GHz Quad – Okta PPC mit SMT auf POWER6 oder 7 Basis und Multi GPU antreten, also 2 oder 4 GPU Kerne pro Chip, auf R800 Basis. Ich hoffe mal, das sie UMA streichen werden und jeder seinen eigenen Speicher bekommen wird.
Wieso hoffen sie das???
Uma bei der Xbox ist nicht dasselbe wie Shared memory bei "üblichen" Pcs,falls sie das meinen.
iceman.s
2008-06-12, 16:45:54
Wieso hoffen sie das???
Uma bei der Xbox ist nicht dasselbe wie Shared memory bei "üblichen" Pcs,falls sie das meinen.
Das weis ich auch. UMA wurde wohl gewählt weil es das elegantere und billigere Speichermodell ist, aber halt auf kosten der Geschwindigkeit. Für optimale Performance sollte halt im Idealfall jedes Subsystem über eigenen Speicher verfügen, schließlich blocken sich GPU & CPU gegenseitig, auch wenn das durch geschicktes Timing, kaum ins Gewicht fällt, Optimal ist es nicht.
Für optimale Performance sollte halt im Idealfall jedes Subsystem über eigenen Speicher verfügen,
wenn es gut gemacht ist ist ein einheitlicher speicher optimal, da die hardware dann perfekt ausgelastet werden kann.
dezidierter speicher für ein subsystem ist im prinzip lediglich eine kostenersparnis, da es zu teuer wäre einen einheitlichen speicher mit der notwendigen bandbreite+größe+latenz zu bauen.
Aquaschaf
2008-06-12, 18:07:53
wenn es gut gemacht ist ist ein einheitlicher speicher optimal, da die hardware dann perfekt ausgelastet werden kann.
Wieso sollte das die Hardware "perfekt" auslasten? Die verschiedenen Komponenten können sich bei einheitlichem Speicher in die Quere kommen.
Das muss ich den Cellhype nur eingebildet haben.:rolleyes:
Hype != realer Erfolg. Der Hype war da, der reale Erfolg blieb weitestgehend aus. Cell hat nurnoch bei PS3 Kiddis einen Namen, nicht mehr in der Branche.
Wieso sollte das die Hardware "perfekt" auslasten? Die verschiedenen Komponenten können sich bei einheitlichem Speicher in die Quere kommen.
der speicher kann perfekt ausgelastet werden, bei getrennten speichern hat man üblicherweise immer auf einer seite "zu viel".
zusätzlich muss die bandbreite entsprechend hoch dimensioniert sein, wovon alle komponenten profitieren, die sonst bei getrenntem speicher weniger bandbreite zur verfügung hätten.
mit entsprechendem speichercontroller und/oder cachelogik kommen sich die einzelnen komponenten auch nicht in die quere.
Hype != realer Erfolg. Der Hype war da, der reale Erfolg blieb weitestgehend aus. Cell hat nurnoch bei PS3 Kiddis einen Namen, nicht mehr in der Branche.
Es geht ja nicht nur um die Branche(Spielentwickler??),sondern um den üblichen Käufer.Da ist da Hype noch nicht abgeflacht.Sieht man ja auch an Usern wie Betasilie.
Das muss ich den Cellhype nur eingebildet haben.:rolleyes:
Man kann alles hypen solange man nur mit den richtigen Zahlen und Begriffen hantiert ;)
Deinorius
2008-06-12, 21:28:18
Genauso wie erst beim kürzlich vorgestelltem Roadrunner mit seinen vielen vielen Cell-Chips, die theoretisch 1 TFlops schaffen.
Petaflop. Ein Teraflop schaffen auch bald GPUs ;)
Petaflop. Ein Teraflop schaffen auch bald GPUs ;)
Und deswegen werden wohl solche Rechner die Regel werden:
http://winfuture.de/news,38975.html
Aquaschaf
2008-06-13, 02:39:31
Es geht ja nicht nur um die Branche(Spielentwickler??),sondern um den üblichen Käufer.Da ist da Hype noch nicht abgeflacht.Sieht man ja auch an Usern wie Betasilie.
Das sind ja nicht die üblichen Käufer. Die Mehrzahl weiß vermutlich gar nicht was für Hardware in der Konsole steckt.
cl55amg
2008-06-13, 03:13:24
edit
iceman.s
2008-06-13, 08:49:42
der speicher kann perfekt ausgelastet werden, bei getrennten speichern hat man üblicherweise immer auf einer seite "zu viel".
zusätzlich muss die bandbreite entsprechend hoch dimensioniert sein, wovon alle komponenten profitieren, die sonst bei getrenntem speicher weniger bandbreite zur verfügung hätten.
mit entsprechendem speichercontroller und/oder cachelogik kommen sich die einzelnen komponenten auch nicht in die quere.
wenn es gut gemacht ist ist ein einheitlicher speicher optimal, da die hardware dann perfekt ausgelastet werden kann.
dezidierter speicher für ein subsystem ist im prinzip lediglich eine kostenersparnis, da es zu teuer wäre einen einheitlichen speicher mit der notwendigen bandbreite+größe+latenz zu bauen.
Wenn UMA richtig gemacht wird, wie bei den alten SGI Workstations, hat es sehr wohl Vorteile. Aber Microsoft hat es nicht richtig gemacht, für sie war es hauptsächlich Mittel um Kosten zu sparen, am PCB und anderen Komponenten.
Wie vor kurzem gemeldet, war ja MS 'so clever' ATI beim Design zu übergehen, um etwas Geld zu sparen. Jetzt müssen sie über eine Milliarde für Service Aufwendungen abschreiben(RROD).
Und SGI ist in späteren Maschinen auch wieder vom UMA weg gegangen, in der Praxis ist "Keep It Simple, Stupid" die bessere Design Alternative. Also anstatt viel Aufwand in ein cleveres UMA Design zu stecken, einfach genug RAM und ausreichend schnelle Verbindungen zwischen die Chips. Wenn man sich die Entwicklung im Server und Supercomputer Bereich anschaut, dann wird genau das praktiziert, jede CPU hat ihren eigenen Speicher, jeder Node und so weiter. Einfach Brute-Force.
Im Regelfall, ist UMA einfach ein schlechter Kompromiss. Und ein "zu viel" kann es eigentlich im IT Bereich fast nicht geben, da fehlt meist immer was. Bei Konsolen wohl hauptsächlich Speicher, da wird unverständlicher Weise immer so gegeizt, dabei ist doch gerade der Speicher, die Komponente, die meist überproportional günstiger wird, im Leben einer Konsole. Bei CPU & GPU kann man optimieren und die Effizienz des Codes erhöhen, aber wenn der Speicher aus geht, muss man reduzieren(Texturauflösung, Objektdichte) oder gleich Sachen weg lassen. Mit RAM schränkt man die Möglichkeiten der Entwickler am meisten ein. Wenn man sieht, das ein Modernes PC Spiel mal so locker 1+GB RAM verblässt, das meiste geht für irgend welche Grafikdaten drauf, dann sieht man überhaupt, über wie wenig Speicher Xbox 360 und PS3 verfügen.
UMA ist nicht die Zukunft! Im Regelfall dürfte am Anfang die Brute-Force Methode teurer sein, aber insgesamt betrachtet die bessere. Man darf ja auch nicht die Entwickler vergessen, die LIEBEN Brute-Force, macht deren Leben viel Einfacher, als sich mit komplizierenden Speicherzugriffsstrategien rum schlagen zu müssen. Deswegen mögen die auch CELL nicht, der passt nicht in das Schema. Vermutlich benutzen die meisten Entwickler die SPUs nicht direkt , sondern maximal über Tools die Sony oder andere Hersteller zur Verfügung stellen.
2gb Videospeicher +4Gb DDr3 wäre sicher im Zeitraum 2011-12 durchaus kostengünstig zu realisieren.Ms könnte mit Ati ja den jetzigen Xenoschip auf Direct X 11 erweitern und 20-33 Stück davon "aneinanderpappen".Wäre sicher billig,keine Kompabilitätsprobleme,hohe Leistung.
florymonth
2008-07-11, 16:36:15
@dargo
http://www.pcgameshardware.de/aid,650929/News/Powercolor_Radeon_HD4850_mit_2_Gigabyte_Videospeicher/
2 Gigabyte GDDR Speicher in einer Karte,die zur Mittelklasse gehört.So teuer kann dieser Speicher nicht sein.4 Gigabyte Unified bzw. Videoram für die nächste Konsolengeneration dürfte nun wirklich keine gewagte Annahme sein.
dargo
2008-07-11, 16:56:47
@florymonth
1. Schon mal den Preis dieser "Mainstream-Karte" berücksichtigt? Die 1GB Version liegt bei:
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=4850&asd=on&filter=+Liste+aktualisieren+&pixonoff=off&xf=132_1024
Eine 512MB Version ist momentan für:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=4850&asd=on&filter=+Liste+aktualisieren+&pixonoff=off&xf=132_512
zu haben. Wenn man das hochrechnet müsste eine 2GB Version bei ~280€ liegen. Das nennst du billig? Soviel darf schon fast eine gesamte Konsole kosten, viel Spielraum hast du da nicht mehr für die anderen Komponenten.
2. Was will man in 3-4 Jahren noch mit GDDR3? Für Full-HD mit 4xMSAA finde ich 64GB Speicherbandbreite (256Bit SI mit 1Ghz GDDR3) ziemlich mager. Man wird keine andere Möglichkeit haben als auf GDDR5 zu gehen. Ich glaube kaum, dass die nächsten Konsolen ein breiteres SI als 256Bit abbekommen.
@florymonth
1. Schon mal den Preis dieser "Mainstream-Karte" berücksichtigt? Die 1GB Version liegt bei:
zu haben. Wenn man das hochrechnet müsste eine 2GB Version bei ~280€ liegen.
Für diesen Preis wird niemand diese Karte kaufen.Großabnehmer zahlen außerdem eh nicht so viel und bis 2011 wird der Preis für Speicher weiter sinken.Vielleicht sind bis dahin gar Gpus mit 4gb Grafikspeicher Mainstream.
Für diesen Preis wird niemand diese Karte kaufen.Großabnehmer zahlen außerdem eh nicht so viel und bis 2011 wird der Preis für Speicher weiter sinken.Vielleicht sind bis dahin gar Gpus mit 4gb Grafikspeicher Mainstream.
Die meisten mich inklusive haben noch nicht mal ein Betriebsystem das mehr als 3,3Gb Speicher "versteht" und du willst gleich alles in 4Gb. :D
Es gibt keine neue Konsolen in 2011-2020. Wenn die Welt noch steht erst in 10 Jahren. Deshalb jetzt darüber zu spekulieren... ist einbisschen wie Zeitverschwendung.
lol 2020 bis dahin gabs 2 neue konsolen
lol 2020 bis dahin gabs 2 neue konsolen
Wie gesagt die Welt muss bis dahin noch stehen. Dafür sieht es nicht gut aus... ich könnte zwar ein langes referat darüber halten aber ich sag es nur kurz: M$ hat nicht umsonst dieser Konsole 3mal6 gegeben.
Deinorius
2008-07-12, 22:43:24
Die meisten mich inklusive haben noch nicht mal ein Betriebsystem das mehr als 3,3Gb Speicher "versteht" und du willst gleich alles in 4Gb. :D
Und? Als ob dieses Argument für Konsolen überhaupt relevant wäre. Wenn es sich preislich ausgeht, 4 GB zu verwenden (wobei ich persönlich eher von max. 2 GB ausgehe), dann wird die Konsole ja auch damit umgehen können.
Und hinsichtlich deines letzten Kommentars würde mich eine Erläuterung sehr interessieren.
Exxtreme
2008-07-12, 22:55:44
Naja, 4 GB werden 2011 wohl wieder recht wenig sein. Da sollten 16 GB schon geplannt werden. Denn die Konsolen halten dann weitere 5 Jahre mindestens.
Und? Als ob dieses Argument für Konsolen überhaupt relevant wäre. Wenn es sich preislich ausgeht, 4 GB zu verwenden (wobei ich persönlich eher von max. 2 GB ausgehe), dann wird die Konsole ja auch damit umgehen können.
2 GB?Zu konservativ geschätzt.Vielleicht ist 3-4 Gb Ram 2012 schon bei den Grafikkarten dann üblich.
Deinorius
2008-07-12, 23:43:29
Könnte auch gut sein. Die derzeitigen HD-Konsolen hatten ja das Problem, dass die der Kosten/Leistungssprung zu den vorigen Konsolen gewaltig war. Bei den nächsten Konsolen könnte das vielleicht kontrollierter ablaufen, damit der Gewinn schon früher einsetzt. Sony und M$ beklagen sich eh schon darüber. Obwohl M$ ja selber wegen diversen Sparkursen schuld war und Sony grad wegen dem BD-LW kaum günstiger gehen kann.
Aber 16 GB? Wir wollen doch nicht vergessen, dass die Sprünge auch immer größer werden. Von 2-4 ist immer noch mehr als von 1-2 GB.
Dazu kommt noch die Tatsache, dass der Leistungsprung auch nicht soo groß sein kann, ohne die Kosten wieder in die Luft zu katapultieren, sonst beschweren sich Sony und M$ wieder über Verluste. Wegen den jetzigen Verlusten werden die womöglich eh schon genauer vorkalkulieren.
Und ich nehme an, wir reden hier von CPU UND GPU-RAM.
Ich wundere mich aber, dass die Bemühungen sowohl CPU als auch GPU auf 65 nm oder dergleichen zu bringen, nicht schneller vonstatten gehen. Immerhin lässt ATI schon in 55 nm und nvidia in 65 nm produzieren und bei den Konsolen ist man bei 65 nm (nur GPUs) erst in ein paar Monaten.
Bei Ms hat sich der Ram verachtfacht.4 Gb sind da wirklich konservativ geschätzt.Ich glaube kaum,daß der Ram nun zu den hohen Verlusten geführt hat.
Deinorius
2008-07-13, 01:04:50
Wieso verachtfacht? Die 512 MB sind immer noch unified und die 64 MB bei der 1. waren nur System Ram. Hatte die Xbox etwa nicht mehr? Ich find auf Wiki keine Infos zum GPU-RAM. Aber es ist ein Unterschied, ob der RAM um 192 MB wächst, oder um 3584. Natürlich gibts hier den Vorteil der kleineren Fertigungsgrößen, aber diese gehen ja nicht in die selbe Größenrichtung. Sprich: Doppelt soviel RAM bei gleicher Größe bzw. gleich viel RAM bei halber Größe (immer im Vergleich zu einem älteren Fertigungsprozess).
Und wir wollen ja nicht vergessen, dass wir uns derzeit in dem Bereich befinden, wo wir langsam an Grenzen stoßen, die erstmal wieder gedehnt werden müssen, wie erst vor kurzem von einem MIT-Team erst (25 nm). Ich zweifle ja nicht, dass es überhaupt passiert, sondern viel mehr, dass es in der gleichen Geschwindigkeit passiert wie bis jetzt. Obwohl ich vorsichtig sein sollte, das Moor'sche Gesetz anzuzweifeln.
Mit welchen Fertigungstechniken/-größen wird RAM eigentlich derzeit gefertigt?
Der RAM macht natürlich nicht die Verluste, aber Kleinvieh macht auch Mist.
Wieso verachtfacht? Die 512 MB sind immer noch unified und die 64 MB bei der 1. waren nur System Ram. Hatte die Xbox etwa nicht mehr? Ich find auf Wiki keine Infos zum GPU-RAM.
Shared memory subsystem
64 MB DDR SDRAM at 200 MHz; 6.4 GB/s
http://en.wikipedia.org/wiki/Xbox#Hardware_and_accessories
Laut Hynix kommt dabei ein 66-Nanometer-Fertigungsprozess zum Einsatz. Die Großserienfertigung soll im ersten Halbjahr 2008 anlaufen.
Anders als die Firma Qimonda, die die GDDR4-Technik quasi überspringen will, hat Hynix auch 512-MBit-Chips nach GDDR4-Spezifikation im Angebot.
Auch Samsung arbeitet an GDDR5-Chips; nach älteren Präsentationsfolien sollten diese Bauelemente eigentlich bereits angekündigt sein. 1-GBit-GDDR5-Chips will Samsung in 50-nm-Technik ebenfalls ab Mitte 2008 in großen Stückzahlen produzieren.
http://www.heise.de/newsticker/Hynix-GDDR5-Speicher-fuer-Grafikchips-ab-Mitte-2008--/meldung/99035
Und? Als ob dieses Argument für Konsolen überhaupt relevant wäre. Wenn es sich preislich ausgeht, 4 GB zu verwenden (wobei ich persönlich eher von max. 2 GB ausgehe), dann wird die Konsole ja auch damit umgehen können.
Und hinsichtlich deines letzten Kommentars würde mich eine Erläuterung sehr interessieren.
Ja gut. Mächtige Geheimgesellschaften planen Neue Weltordnung mit ~500 Mio. Erdbewohnern. Typische Erkennungszeichen für NWO sind bestimmte Zahlenkombinationen und jede Menge (versteckter)okkulter Zeichen. Dieses Thema wird ausführlich auf infowars.com, prisonplanet.com und solchen Seiten wie infokrieg.tv ausführlich behandelt. Mit Videos, Büchern, Youtube usw. Ein Riesending eigentlich.
Giraffengustav75
2008-07-13, 12:02:11
Ich würde mir wünschen, dass die neuen Konsolen sich wieder mehr auf alte Tugenden konzentrieren - so wie der Wii! Einschalten, Loslegen. Ok, man wird ja wohl noch träumen dürfen...:redface:
Weniger Multimedia-Ballast, Abwärtskompatibel zu allen vorherigen Konsolen (per Download) und einfach "ausgereifter".
Diese Generation steht im Zeichen von HD. Das scheint mir allerdings ein bisschen halbgar umgesetzt zu sein. Oft wird mit der Auflösung runtergegangen und warum man AA+AF so stiefmütterlich behandelt, weiß ich auch nicht. Eine der besten Grafiken der letzten Generation fand ich die beiden Metroid Prime Teile:
Hoher Detailgrad, schöne Texturen, butterweiche 60fps, ich vermute auch AA, aber komischerweise ist mir am meisten fast das AF ins Auge gestochen, welches man überdeutlich sieht. Es sieht einfach so sauber und rein aus. :smile: Und das bei einer solch alten Hardware!
Egal wie sie aussehen werden......bitte weg von diesem Möchtegern-PCs und Back to the Roots. Microsoft und Sony müssen doch den Erfolg des Wii sehen.....hoffentlich hat vor allem Sony gelernt, dass die Leute keine 1000 Euro Konsole mit integriertem updatefähigem Kondomautomaten und einer Größe fast eines kleinen PCs wollen. Aber ich befürchte, sie werden mich eines besseren belehren...
Deinorius
2008-07-13, 12:24:13
@Gast
Wo steht, dass M$ keine neue Xbox produzieren will? Sowas wurde nie verlautbart.
@xxx1983
Der Multimedia-Ballast kann ruhig bleiben, immerhin ist das die Draufgabe, weil es jetzt einfach möglich ist. Die Leistung ist immerhin da. Das einzige Problem dabei ist, dass sich mögliche Fehler in die Firmware eher einmischen können.
Hinsichtlich AA/AF wäre ich deiner Meinung. Gott sei Dank fällt mir das aber kaum auf. ^^ Ich sehe nur geile Grafik. (Nur die Anzahl der wirklich guten Spiele könnte etwas höher sein, aber es reicht.)
Ich hoffe immer noch, dass die nächste Generation besser fahren wird. Das war jetzt der große Sprung zu HD, aber ab jetzt heißt es, an den Details zu feilen. Und möglicherweise werden uns die nächsten Konsolen dann mit mehr Stabilität überraschen. Die Komplexität ist ja mittlerweile so gestiegen, dass kein Konsolenhersteller mehr ohne einen speziellen Außenfertiger auskommen kann. Zurück zu den alten Tugenden bei der Grafik halte ich insofern auch für schwer vorstellbar.
@Gast
Wo steht, dass M$ keine neue Xbox produzieren will? Sowas wurde nie verlautbart.
@xxx1983
Der Multimedia-Ballast kann ruhig bleiben, immerhin ist das die Draufgabe, weil es jetzt einfach möglich ist. Die Leistung ist immerhin da. Das einzige Problem dabei ist, dass sich mögliche Fehler in die Firmware eher einmischen können.
Hinsichtlich AA/AF wäre ich deiner Meinung. Gott sei Dank fällt mir das aber kaum auf. ^^ Ich sehe nur geile Grafik. (Nur die Anzahl der wirklich guten Spiele könnte etwas höher sein, aber es reicht.)
Ich hoffe immer noch, dass die nächste Generation besser fahren wird. Das war jetzt der große Sprung zu HD, aber ab jetzt heißt es, an den Details zu feilen. Und möglicherweise werden uns die nächsten Konsolen dann mit mehr Stabilität überraschen. Die Komplexität ist ja mittlerweile so gestiegen, dass kein Konsolenhersteller mehr ohne einen speziellen Außenfertiger auskommen kann. Zurück zu den alten Tugenden bei der Grafik halte ich insofern auch für schwer vorstellbar.
Natürlich, das hat irgendein M$ Mitarbeiter in einem Interview gesagt. Der hat gesagt wir planen das aktuelle Konsole 10 Jahre halten wird und es keine Pläne für Nachfolgekonsole gibt.
Für die meisten ist es schwer vorzustellen gewesen deshalb war seine Aussage nicht so "populär".
Ich glaube eher das MS schon an der nächten Generation arbeitet, mit Ziel 2010. Durch die Abwärtskompatibilität auch kein Problem, aber man muss neue Argumente liefern um Wii und PS3 auszustechen. Die Arcade Version ohne HD ist billiger als eine Wii und verkauft sich nicht wirklich, was will man da machen? Genau, man packt den Grafikhammer aus, schlägt damit die PS3 und macht einen auf "neue" Steuerung. Alles was Wii und PS3 so an Steuergeräten bieten wird MS auf die neue Box Adaptieren. Volle DX10 oder DX10.1 compilance bei 60FPS@720p mit 4xAA/8xAF könnte Grafisch einiges reißen.
Ob man ein Bluray Laufwerk verbaut, wird die Statistik MS sagen.
_DrillSarge]I[
2008-07-13, 13:44:19
ich glaube kaum, dass man in der nächsten zeit neue konsolen zu gesicht bekommt. die alten werden weiter gepusht.
ms bspw. senkt wiedermal die preise bzw. baut ne größere platte ein
http://www.microsoft.com/presspass/press/2008/jul08/07-1360GBPR.mspx
I[;6654855']ich glaube kaum, dass man in der nächsten zeit neue konsolen zu gesicht bekommt. die alten werden weiter gepusht.
ms bspw. senkt wiedermal die preise bzw. baut ne größere platte ein
http://www.microsoft.com/presspass/press/2008/jul08/07-1360GBPR.mspx
Jo. Solange die alten Konsolen keinen Profit bringen, kann man eher davon ausgehen, dass sie noch länger leben werden. Denn irgendwann werden die Einnahmen die Kosten überholen oder egalesieren.
Bei der Wii sieht es anders aus. Dort will man noch Geld abshöpfen und lässt die Wii noch auf dem Markt. Vielleicht kommt ja bei einem Gewinnrückgang die Wii 1.5 mit besserer Grafik raus.
Lurtz
2008-07-13, 14:19:30
Ich glaube eher das MS schon an der nächten Generation arbeitet, mit Ziel 2010. Durch die Abwärtskompatibilität auch kein Problem, aber man muss neue Argumente liefern um Wii und PS3 auszustechen. Die Arcade Version ohne HD ist billiger als eine Wii und verkauft sich nicht wirklich, was will man da machen? Genau, man packt den Grafikhammer aus, schlägt damit die PS3 und macht einen auf "neue" Steuerung. Alles was Wii und PS3 so an Steuergeräten bieten wird MS auf die neue Box Adaptieren. Volle DX10 oder DX10.1 compilance bei 60FPS@720p mit 4xAA/8xAF könnte Grafisch einiges reißen.
Ob man ein Bluray Laufwerk verbaut, wird die Statistik MS sagen.
MS könnte es sich leisten, aber ich glaube nicht daran. Die 360 ist schon eine sehr attraktive Konsole, hat aber Image-Probleme. Ich glaube nicht dass es hilft wenn MS sofort einen nachfolger hinterherschmeißt, der Markt ist sowieso schon übersättigt und auch potenzielle Wii-Käufer wird man damit kaum locken.
Bei der Wii sieht es anders aus. Dort will man noch Geld abshöpfen und lässt die Wii noch auf dem Markt. Vielleicht kommt ja bei einem Gewinnrückgang die Wii 1.5 mit besserer Grafik raus.
Nur scheint dafür in absehbarer Zeit keine Nachfrage zu bestehen...
florymonth
2008-07-13, 14:42:05
Natürlich, das hat irgendein M$ Mitarbeiter in einem Interview gesagt. Der hat gesagt wir planen das aktuelle Konsole 10 Jahre halten wird und es keine Pläne für Nachfolgekonsole gibt.
Das hat er nicht gesagt.:rolleyes:
derStandard.at: Und wie lange dauert es noch bis die nächste Xbox erscheint?
Shane Kim: Es gibt keine nächste Xbox.
derStandard.at: Keine 720er?
Shane Kim: Nicht das ich wüsste... Nichts was ich Ihnen verraten werde. Nein, wir sind fokussiert auf die Xbox 360. Wie schon zuvor gesagt, unsere Forschungs- und Entwicklungsabteilung steht nicht still. Aber zurzeit gilt der größte Teil unserer Aufmerksamkeit der 360er. Diese Generation hat noch einen weiten Weg vor sich.
http://derstandard.at/?url=/?id=3337485
Aber diese Xbox soll lange laufen.Was nicht heiß,daß zwischenzeitlich kein ein Nachfolger rauskommt.
MarcWessels
2008-07-13, 14:42:14
Volle DX10 oder DX10.1 compilance bei 60FPS@720p mit 4xAA/8xAF könnte Grafisch einiges reißen.1080P bitteschön. 720P wäre lächerlich.
MS könnte es sich leisten, aber ich glaube nicht daran. Die 360 ist schon eine sehr attraktive Konsole, hat aber Image-Probleme. Ich glaube nicht dass es hilft wenn MS sofort einen nachfolger hinterherschmeißt, der Markt ist sowieso schon übersättigt und auch potenzielle Wii-Käufer wird man damit kaum locken.
Bei der Wii sieht es anders aus. Dort will man noch Geld abshöpfen und lässt die Wii noch auf dem Markt. Vielleicht kommt ja bei einem Gewinnrückgang die Wii 1.5 mit besserer Grafik raus.
Nur scheint dafür in absehbarer Zeit keine Nachfrage zu bestehen...
Weiß du wie es aussah als der SNES raukam? War dies eine andere Situation im Vergleich zu dieser?
Denn für mich war der SNES auch nur ein NES 1.5. Vielleicht kommt solch eine Analogie auch für die Wii.
CrazyIvan
2008-07-13, 17:10:08
Nur ein NES 1.5? Ich hatte beide Konsolen und habe den Umstieg als Quantensprung empfunden. Natürlich hat es bei beiden Konsolen eine Weile gedauert, bis man sie komplett ausgereizt hatte. Beim NES war wohl Super Mario 3 grafisch der beste Titel. Am unteren Ende der Skala stand IMHO beim SNES Super Tennis, das aus der neuen Hardware nicht wirklich viel rausholen konnte. Aber gerade Donkey Kong hat doch eindrucksvoll gezeigt, wozu das SNES imstande war. Davon hat man zu NES-Zeiten nicht einmal zu träumen gewagt. Gleiches gilt im übrigen für den Controller - das waren einfach Welten.
Giraffengustav75
2008-07-13, 17:34:50
Aber gerade Donkey Kong hat doch eindrucksvoll gezeigt, wozu das SNES imstande war. Davon hat man zu NES-Zeiten nicht einmal zu träumen gewagt.
Gab es überhaupt mal ein Spiel, welches mehr aus einer Konsole rausgeholt hat als Donkey Kong aus dem SNES? :smile:
Irgendwie fände ich es gar nicht so schlecht, wenn Nintendo wieder zu ihren Modulen zurückkehren würde! So 4-8 Gigabyte SD-Karten oder spezielle Module wären doch cool.....keine Ladezeiten und vielleicht sogar mit Upgrade-Möglichkeit wie eben bei Donkey Kong (soweit ich weiß) und Starfox, in denen ja nochmal Zusatzhardware in den Modulen steckte, sozusagen ein aufgerüsteter SNES und es lief auf jeder Konsole!
Ich weiß natürlich, dass das größte Problem hier der Preis ist, aber ich fände das schon geil!
1080P bitteschön. 720P wäre lächerlich.
Realistisch, schau dir aktuelle Mainstream Karten an bitte, genau das wird wohl das Leistungsniveau der Next Gen sein. Mehr als eine HD4850 würde ich nicht erwarten.
superdash
2008-07-13, 18:14:51
In ein paar Jahren vielleicht wieder - wenn Flash Speicher in ähnliche Preisregionen vorstößt wie optische Medien. dann werden die Konsolenhersteller - aber imho auch die Filmindustrie - dies als neues Medium zum Verkauf in den Läden benutzen. Wenn bis dahin nicht schon das Übertragungsmedium Internet dominiert.
Gruß
Realistisch, schau dir aktuelle Mainstream Karten an bitte, genau das wird wohl das Leistungsniveau der Next Gen sein. Mehr als eine HD4850 würde ich nicht erwarten.
Bei Nintendo?Denkbar.
Deinorius
2008-07-13, 20:27:05
1080P bitteschön. 720P wäre lächerlich. Nö, wieso? Die meisten Fernseher, die in den Häusern stehen, können eh kein 1080p nativ darstellen. Imo wäre es weitaus vernünftiger bei 720p zu bleiben (je nach Spiel halt), dafür AF/AA besser auszureizen und dann auch die Qualität enorm nach oben zu bringen.
Die meisten merken den Auflösungsunterschied ja nicht wirklich. Auch wenn man das grad über die Treppeneffekte ja sehr wohl unterscheiden kann, merken viele, wenn nicht gar die meisten, praktisch gar nicht, dass AA derzeit bei den Konsolen nicht genutzt wird.
Bei 720p, (AF/AA) und einer besseren Grafik wird man einen höheren AHA!-Effekt erreichen als durch eine höhere Auflösung. Selbst bei Videos erkennen die meisten keinen Unterschied zwischen 720p und 1080p, allein schon deswegen, weil die zu weit vom Fernseher weg sitzen, wie man es ja normalerweise tut. Allein schon wegen den Panels, die zum größten Teil eh kein FullHD beherrschen!
Ich hätte aber auch nix dagegen, wenn man auch 1080p neben 720p nutze könnte. Aber, und man möge mich korrigieren, ich stelle mir vor, dass das das Auslasten der Hardware irgendwie komplizierter macht. Wenn 720p inkl. AA bzw. 1080p ohne AA wahlweise funktioniert, dann meinetwegen.
Realistisch, schau dir aktuelle Mainstream Karten an bitte, genau das wird wohl das Leistungsniveau der Next Gen sein. Mehr als eine HD4850 würde ich nicht erwarten.
Normal sind Konsolen-GPUs relativ High-End beim erscheinen.
Durch 40nm würde ich schon erwarten dass noch Faktor 3-4 drin ist ggü. einer 4850 in 2011.
Aquaschaf
2008-07-13, 21:29:32
Wobei man nun argumentieren könnte dass die absolute Zahl der Konsolen die etwas ziemlich ähnliches zu einer PC-GPU hatten noch zu gering ist um davon auf künftige Konsolen zu schließen.
Wenn AMD etwas flüssiger wäre, dann wäre die Planung einer eigenen Konsole meiner Meinung nach jetzt goldrichtig.
Speicher, Festplatte, WLAN etc. müsste man wohl extern einkaufen.
Aber CPU, GPU, Chipsatz und Board könnte man selber stellen.
Ich glaube sogar, dass sie aufgrund der Möglichkeiten die Einzigen sind, die eine HD-Konsole hart kalkuliert mit Gewinn oder +-0 verkaufen könnten.
Meine Meinung.
Normal sind Konsolen-GPUs relativ High-End beim erscheinen.
Durch 40nm würde ich schon erwarten dass noch Faktor 3-4 drin ist ggü. einer 4850 in 2011.
?
Pro Jahr verdoppelt sich doch eher die Leistungs der Grafikkarten(Stagnation gab es doch eher wegen Fehlentwicklungen von Ati).2 hoch3=8.
Wenn AMD etwas flüssiger wäre, dann wäre die Planung einer eigenen Konsole meiner Meinung nach jetzt goldrichtig.
Speicher, Festplatte, WLAN etc. müsste man wohl extern einkaufen.
Aber CPU, GPU, Chipsatz und Board könnte man selber stellen.
Ich glaube sogar, dass sie aufgrund der Möglichkeiten die Einzigen sind, die eine HD-Konsole hart kalkuliert mit Gewinn oder +-0 verkaufen könnten.
Meine Meinung.
Was ist mit der Kompabilität?Die wird letzendlich auch bei der Ps3 wieder kommen.Was hat Ms daran gehindert,schon bei der 360 eine Cpu von Amd zu nehmen?
Chris2CB
2008-07-13, 21:47:47
Wenn AMD etwas flüssiger wäre, dann wäre die Planung einer eigenen Konsole meiner Meinung nach jetzt goldrichtig.
Speicher, Festplatte, WLAN etc. müsste man wohl extern einkaufen.
Aber CPU, GPU, Chipsatz und Board könnte man selber stellen.
Ich glaube sogar, dass sie aufgrund der Möglichkeiten die Einzigen sind, die eine HD-Konsole hart kalkuliert mit Gewinn oder +-0 verkaufen könnten.
Meine Meinung.
Das lohnt sich nicht für AMD, besser Patente verkaufen bzw. Design für Konsolen. Fall nötig auch Chips liefern. AMD+Marketing....ist nicht gerade AMD's stärke.
Bin aber auch mal gespannt wo die Reise hingeht bei den neuen Konsolen, ein einfacher Hardware Aufguss genügt ja eigentlich nicht, groß rätseln braucht man da ja auch nicht, abgesehen von der Kapazität des Lokalen Datenträger dürfte wohl einiges um Faktor 8 steigen. Und halt irgendein Betriebssystem damit das Teil als PC durchgeht um Steuern zu sparen.
Wenn man nicht wie Nintendo punkten kann, eventuell ein schönes schlankes Design um sich besser in einen Wohnraum integrieren zu können. Eine Sony Konsole sollte man auch mit anderen Mobilen Sony Produkten nutzen können, Handy, Kamera etc. Für die Konsole sollte es ein leichtes sein den PC fast komplett aus der Wohnung zu verjagen.
Ich gehe von Anfang 2010 mit der Ankündigung aus, erste Leaks in einem Jahr. DX11 brauch MS bei den Konsolen nicht, sonst hätte man die Box auch DX10 tauglich gemacht, die PS3 Verspätung war MS sicherlich bekannt.
Warum sollte man nicht eine technologisch erweitere Konsole bringen und die alte Auslaufen lassen. Wii zeigte, man muss nicht mehr so sehr mit der Grafik klotzen. Doppelte Performance, grade mit einem RV770 wäre gut möglich.
dass AA derzeit bei den Konsolen nicht genutzt wird.
Woher hast du denn das her?
Army of Two = 1280x720 (2xAA)
Assassin's Creed = 1280x720 (2xAA)
Beowulf = 1280x720 (4xAA)
Call of Duty 3 (screenshot) = 1040x624 (2xAA)
Call of Duty 4 (screenshot) = 1024x600 (2xAA)
Cars Mater-National = 1280x720 (4xAA)
Condemned 2 = 1280x720 (2xAA)
Conflict: Denied Ops (demo) = 1280x720p (2xAA)
Crash Time = 1280x720 (2xAA)
Dead or Alive 4 = 1280x720 (2xAA)
Dead Rising = 1280x720 ( up to 4xAA depending on frame rate)
Devil May Cry 4 = 1280x720 (2xAA)
Fifa Street 3 = 1920x1080 (4xAA)
Ghost Recon: Advanced Warfighter 2 = 1280x720 (2xAA)
Golden Compass = 1280x720 (2xAA)
Grand Theft Auto IV = 1280x720 (2xAA)
NBA Street Home court (demo) = 1920x1080 (4xAA)
NCAA Football 08 (demo) = 1024x600 (2xAA)
NFL Tour = 1280x720 (4xAA, 60fps)
Pro Evolution Soccer 6 (demo) = 1024x576 (2xAA)
Pro Evolution Soccer 2008 = 1280x720 (4xAA)
Project Gotham Racing 3 (demo) = 1024x600 (2xAA)
Project Gotham Racing 4 = 1280x720 (2xAA)
SEGA: Superstars Tennis = 1280x720 (2xAA, 30fps)
Skate = 1280x720 (2xAA ? )
Soldier of Fortune: Payback = 1280x720 (4xAA sometimes)
Splinter Cell Double Agent = 1280x720 (4xAA) (developer)
The Club = 1280x720 (4xAA)
Tomb Raider Legend = 1024x600 (2xAA)
Wenn AMD etwas flüssiger wäre, dann wäre die Planung einer eigenen Konsole meiner Meinung nach jetzt goldrichtig.
Speicher, Festplatte, WLAN etc. müsste man wohl extern einkaufen.
Aber CPU, GPU, Chipsatz und Board könnte man selber stellen.
Ich glaube sogar, dass sie aufgrund der Möglichkeiten die Einzigen sind, die eine HD-Konsole hart kalkuliert mit Gewinn oder +-0 verkaufen könnten.
Meine Meinung.
Schwachsinn, ganz ehrlich. Eine Konsole zu entwickeln UND die Spieleentwickler zu supporten kostet massig Geld. Dazu muss die Marketingmaschine laufen und man muss schon bei der Planung nahmhafte Hersteller auf seiner Seite haben sonst kann man da nichts auf die Beine stellen. AMD hat gar nichts in der Hinsicht. Im Konsolenmarkt läuft das ganz anders als im PC Hardware Business. MS konnte sich "etablieren" weil sie ca. 5Mrd. Dollar in dem Markt versenkt haben (2x Konsole plus aufkauf von Entwicklern, aufbau eigener Softwareschmieden).
Woher hast du denn das her?
...Spieleliste...
Es kommt langsam, das man AA nutzt aber die verwendete Auflösung ist ein schlechter Witz auf großen LCDs. 2xAA bringt da fast nichts, selbst wenn man nicht den vergleich zum PC hat, sieht man die Ecken und das Aliasing überdeutlichst. Das aber keine Leistung für 8xAF vorhanden ist (bei der Box nicht verwunderlich) ist umso enttäuschender.
Deswegen hoffe ich, das MS die Next Gen alsbald wie möglich bringt. Alte Spiele die nun AA verwenden, sollten auf der neuen Generation entweder in höherer Auflösung oder mit Hardwareforciertem AA+AF laufen. Außer es wird der EDRAM genutzt, das ist dann halt kake zu emulieren (totaler Desingfehler in meinen Augen, das man daran nicht denkt beim entwickeln einer Konsole, wie soll das jemals ohne Hardware nachbau in der nächsten Generation supportet werden).
MarcWessels
2008-07-13, 22:03:01
Selbst bei Videos erkennen die meisten keinen Unterschied zwischen 720p und 1080p, allein schon deswegen, weil die zu weit vom Fernseher weg sitzen, wie man es ja normalerweise tut.Normalerweise sitzt man also zu weit weg vom TV? Aha.
LovesuckZ
2008-07-13, 22:12:05
Normalerweise sitzt man also zu weit weg vom TV? Aha.
Ja, normalerweise schon. Und bei 42" zieht man keinen Unterschied mehr zwischen HD-Ready und Full-HD (beide Plasma) auf 2,5m. Näher möchte ich nicht am Fernsehr sitzen, wenn das ganze Bild ausgefüllt ist.
Ich gehe von Anfang 2010 mit der Ankündigung aus, erste Leaks in einem Jahr. DX11 brauch MS bei den Konsolen nicht, sonst hätte man die Box auch DX10 tauglich gemacht, die PS3 Verspätung war MS sicherlich bekannt.
Warum sollte man nicht eine technologisch erweitere Konsole bringen und die alte Auslaufen lassen. Wii zeigte, man muss nicht mehr so sehr mit der Grafik klotzen. Doppelte Performance, grade mit einem RV770 wäre gut möglich.
Der Xenos hat 240 Gigaflops.RV770 hat 4 mal so viel Rechenleistung und eine verbesserte Archtitektur.(mehr Textel etc.)
Deinorius
2008-07-13, 22:56:32
Woher hast du denn das her? Sorry, mein Fehler. Meinte eher "nicht immer", sofern das stimmt.
Meine Aussage bleibt dennoch. Dann kann man standardmäßig 4xAA mit 720p eher realisieren als mit 1080p.
Wobei ich dennoch nicht abschätzen kann, ob bei gleicher Qualität 720p 4xAA wirklich weniger braucht als 1080p 1xAA.
Aber gerade bei steigender Qualität kann ich mir nicht vorstellen, ob ein Spiel ohne AA wirklich besser aussieht, trotz höherer Auflösung (grad bei Haaren).
Um es noch hinzuzufügen, aber das ist meine persönliche Meinung: Gerade wenn die Qualität steigt, würden Treppeneffekte oder fehlendes AF wohl erst recht auffallen.
Normalerweise sitzt man also zu weit weg vom TV? Aha. Natürlich. Also 3 m find ich angenehm bei einem 40"er. Bei meinem derzeitigen 60cm Röhrenfernseher sitz ich sogar noch a bisserl weiter.
(Und hinsichtlich etwas falscher Formulierung wollen wir ja nicht pingelig werden, gell?)
Die geringe Entfernung zum Laptop-Display ertrag ich nur, weil die Helligkeit angenehm niedrig ist. Gleiches gilt für den Desktop-Monitor. Und obwohl ich oft über den Monitor etwas gucke, ist das kein richtiger Ersatz für einen TV.
Den Rest hat LovesuckZ geschrieben und das ist dann auch einer der beiden Punkte, wieso ich eher für 720p als für 1080p bin, der andere ist halt der Leistungsanspruch. Natürlich hat das nicht Hand und Fuss, wenn man bei 720p dennoch auf AF/AA weitgehend wieder verzichtet, oder es nicht richtig nutzt, aber das hoffe ich grad deswegen nicht, weil wir ja schon sehen, wie effizient grad der RV770 bei AA geworden ist.
Was ist mit der Kompabilität?Die wird letzendlich auch bei der Ps3 wieder kommen.Was hat Ms daran gehindert,schon bei der 360 eine Cpu von Amd zu nehmen?
Mit Sicherheit auch, weil durch den Apple-Switch IBM->Intel der letzte Consumerlieferant die PPC-Prozessoren aufgegeben hat. Das ist klar.
Aber wer würde AMD daran hindern einen modifizierten Prozessor in der Konsole zu verbauen? Man könnte auch eine andere Art der Hardwareabfrage installieren. Es gibt wirklich genug Möglichkeiten die Konsole imkompatibel zu normalen PC-Systemen zu machen.
Wenn man dann noch BluRay+Schutz nutzen würde (mit Sony wäre das sicherlich eine schwere Sache), dann könnte man auch keine Spielekopien erstellen.
Ein wirkliches Problem sehe ich das also nicht.
Das lohnt sich nicht für AMD, besser Patente verkaufen bzw. Design für Konsolen. Fall nötig auch Chips liefern. AMD+Marketing....ist nicht gerade AMD's stärke.
Wenn das alles so sauber läuft, dann gebe ich dir Recht.
Marketing hat aber nichts mit Stärke zu tun. AMD verfolgt eine andere Marketingstrategie als Intel. Das aber nicht erst seit gestern.
Und deshalb kann man sich kein abschliessendes Urteil dazu bilden.
Denn es gab Zeiten, da hatte AMD damit durchaus auch Erfolg.
Ich glaube sowieso nicht daran, dass Intel's Fernsehwerbung einen wirklichen Kaufanreiz gibt, denn: Der Office-PC Nutzer schaut auf den Preis und der ambitionierte Nutzer auf Benchmarks etc.
Dem Ersten ist es also egal was drin steckt und dem Zweiten letztendlich auch. Dieses Profiimage, welches Intel damals hatte ("AMD für Spiele, Intel zum arbeiten") gehört der Vergangenheit an. Sicherlich auch durch die breite Implementierung von SSE.
Dabei darf man natürlich auch nicht Intel's Marktmacht vergessen. Ein Komplettsystemhersteller könnte AMD-Systeme auch dann nicht anbieten, wenn diese besser, schneller, sparsamer etc. wären.
Nicht fair? Was ist schon fair? ;)
Schwachsinn, ganz ehrlich. Eine Konsole zu entwickeln UND die Spieleentwickler zu supporten kostet massig Geld. Dazu muss die Marketingmaschine laufen und man muss schon bei der Planung nahmhafte Hersteller auf seiner Seite haben sonst kann man da nichts auf die Beine stellen. AMD hat gar nichts in der Hinsicht. Im Konsolenmarkt läuft das ganz anders als im PC Hardware Business. MS konnte sich "etablieren" weil sie ca. 5Mrd. Dollar in dem Markt versenkt haben (2x Konsole plus aufkauf von Entwicklern, aufbau eigener Softwareschmieden).
Geld etc.:
Du lesen musst ersten Satz, junger Padawan. ;)
Namhafte Hersteller (namhaft->Name. Nicht nehmen.):
Meinst du Spieleentwickler? Ansonsten wüsste ich jetzt nicht, wem AMD grossartig in den Arsch kriechen müsste um eigene Produkte auf den Markt zu werfen. Den Laden gibt es nicht erst seit gestern, falls dir das entgangen sein sollte.
Marketing:
Das Problem mit dem Marketing ist prinzipiell keines, da so gewollt. siehe oben.
MarcWessels
2008-07-14, 00:09:25
Ja, normalerweise schon. Und bei 42" zieht man keinen Unterschied mehr zwischen HD-Ready und Full-HD (beide Plasma) auf 2,5m. Näher möchte ich nicht am Fernsehr sitzen, wenn das ganze Bild ausgefüllt ist.Dann hast Du aber schlechte Augen, wenn ich bei 1,80m und 32 Zoll schon den Unterschied sehe.
Deinorius
2008-07-14, 01:20:22
Dann hast Du aber schlechte Augen, wenn ich bei 1,80m und 32 Zoll schon den Unterschied sehe. Ich persönlich habe aber auch kein Interesse bei einem Film oder einem Spiel ständig auf Kleinigkeiten zu achten und dabei auch noch den eigentlichen Grund zu verpassen, nämlichen den Film bzw. das Spiel.
Außerdem ist die Aussage mit den schlechten Augen falsch formuliert. Sag besser, du hast geschultere Augen. Apropos, die hab ich auch, ich setze nur die Priorität auf das Wesentliche.
Mit Sicherheit auch, weil durch den Apple-Switch IBM->Intel der letzte Consumerlieferant die PPC-Prozessoren aufgegeben hat. Das ist klar.
Aber wer würde AMD daran hindern einen modifizierten Prozessor in der Konsole zu verbauen? Man könnte auch eine andere Art der Hardwareabfrage installieren. Es gibt wirklich genug Möglichkeiten die Konsole imkompatibel zu normalen PC-Systemen zu machen.
Wenn man dann noch BluRay+Schutz nutzen würde (mit Sony wäre das sicherlich eine schwere Sache), dann könnte man auch keine Spielekopien erstellen.
Ich meinte eher die Kompabilität mit älteren Spielen.Ich glaube nicht,daß Ms schon wieder nen Emulator entwickeln will.Die entwickeln außerdem inzwischen selber Chips.Wahrscheinlich erweitern/verbessern sie einfach den bisherigen Prozessor und nutzen in der nächsten Generation einfach mehr Kerne als jetzt.
Ich meinte eher die Kompabilität mit älteren Spielen.Ich glaube nicht,daß Ms schon wieder nen Emulator entwickeln will.Die entwickeln außerdem inzwischen selber Chips.Wahrscheinlich erweitern/verbessern sie einfach den bisherigen Prozessor und nutzen in der nächsten Generation einfach mehr Kerne als jetzt.
:confused:
Was genau hätte eine AMD-Konsole mit Microsofts XBOX'en zu tun?
Kann es sein, dass du suggestiv die ganze Zeit denkst ich würde von Microsoft sprechen, obwohl ich AMD schreibe?
Lies dir nochmal genau durch, was ich geschrieben habe. ;)
:confused:
Was genau hätte eine AMD-Konsole mit Microsofts XBOX'en zu tun?
Kann es sein, dass du suggestiv die ganze Zeit denkst ich würde von Microsoft sprechen, obwohl ich AMD schreibe?
Lies dir nochmal genau durch, was ich geschrieben habe. ;)
Oh,sorry.
Aber wenn schon Microsoft Milliarden verbraten hat,um in dieses Geschäft einzusteigen,würde es für Amd wohl nicht reichen nur flüssig zu sein.Sie bräuchten ja etwa Exklusivtitel.Die Konsole muss technisch beim Release annähernd auf dem Stand eines guten Spielepcs sein und nicht zu viel kosten.Ohne Subventionen schwer denkbar.Die Nintendostrategie könnten die auch nicht wirklich fahren.(für +- o)
MarcWessels
2008-07-14, 02:55:42
Ich persönlich habe aber auch kein Interesse bei einem Film oder einem Spiel ständig auf Kleinigkeiten zu achten und dabei auch noch den eigentlichen Grund zu verpassen, nämlichen den Film bzw. das Spiel.Die springen einem ins Auge. ;)
P.S.: Allein schon die Darsteller wirken viel präsenter.
Oh,sorry.
Kein Problem. ;)
Aber wenn schon Microsoft Milliarden verbraten hat,um in dieses Geschäft einzusteigen,würde es für Amd wohl nicht reichen nur flüssig zu sein.
Mit "flüssig" war auch kein temporär beflügelter Moment, sondern wirklich Asche gemeint.
Microsoft hat natürlich auch richtig Geld investieren müssen, da sie nichts von der XBox360-Hardware selber entwickeln und produzieren konnten. Das mussten alles Dritte machen.
Und wieviel es kostet, wenn man etwas selber macht oder es in Auftrag geben lässt, siehst du ja auch schon in anderen Lebensbereichen.
Letztendlich musste Microsoft "nur" noch Windows-Komponenten für die PowerPC-Architektur tauglich machen.
Sie bräuchten ja etwa Exklusivtitel.
Es ist kein Problem Spieleschmieden für einen Exklusivtitel zu gewinnen. Solche Verträge werden heutzutage eher unter dem Gesichtspunkt der Titelzahl unterschrieben. Man darf die ganze Exklusivitätsache aber sowieso nicht überbewerten. Es gibt meist immer eine halbwegs adäquate Alternative auf einem vergleichbaren System. Das Rad hat bisher keiner mehr neu erfunden.
Natürlich liegt es an AMD die eigene Plattform in jeder Hinsicht für Spieleentwickler und vor allem Publisher attraktiv zu gestalten. Dafür muss man aber nicht immer gleich Geld auf den Tisch legen.
Die Konsole muss technisch beim Release annähernd auf dem Stand eines guten Spielepcs sein und nicht zu viel kosten.
Annähernd ist ein wirklich sehr dehnbarer Begriff.
Beim Erscheinen der XBOX360 stand die X1800 schon in den Läden. Ca. 1.5 Monate später dann sogar die X1900. Schon die X1800 hat mehr als die doppelte Bandbreite eines Xenos.
Da helfen dann auch keine Unified-Shader weiter. Denn ein 128Bit SI war damals schon nicht mehr zeitgemäss, wenn man ambitioniert spielen wollte.
Das Problem merkt man ja jetzt langsam. Sobald der Titel richtig gut aussehen soll muss schon für 720p wie die Hölle optimiert werden.
Stell dir mal vor, was man heute noch hätte zaubern können, wenn es ein R520/R580 Verwandter mit 256Bit SI gewesen wäre?
Ich finde, man hätte in Anbetracht der angepeilten Lebenszeit ruhig potentere Hardware bei der XBOX360 und der PS3 nutzen können.
Letztere kam ja noch später auf den Markt und hat dafür sogar noch eine schlechtere GPU. Auweia. Auch den Rest der Architektur finde ich persönlich jetzt nicht so helle, aber STOP! Bevor das hier jetzt wieder losgeht: Nur meine Meinung ohne Anspruch auf Allgemeingültigkeit!
Und da wären wir auch schon beim nächsten von dir angesprochenen Punkt: Eine Konsole muss bei Erscheinung günstig sein.
Sicherlich richtig. Aber: Die Konsole wird bei einer langen Lebenszeit sowieso immer günstiger in der Herstellung. Auch ein Grund, warum Spieleentwickler immer erst ein wenig später aufwendigere Titel veröffentlichen. Nein, es ist nicht nur die Entwicklungszeit. ;)
An den Verkaufszahlen siehst du, dass sich Konsolen meist besonders nach zwei Jahren richtig gut verkaufen:
http://www.heise.de/newsticker/Microsoft-freut-sich-ueber-hoehere-Xbox-360-Verkaufszahlen--/meldung/106647
Die Preissenkungen sind dann meist deutlicher und das Spieleangebot an guten Titeln grösser.
Und all das weiss man auch schon vorher.
Ohne Subventionen schwer denkbar.
Wir schon gesagt, Subventionen sind nicht alles. Sie sind nötig, aber man kann sie durch ein insgesamt überzeugendes Produkt minimieren.
Die Nintendostrategie könnten die auch nicht wirklich fahren.(für +- o)
Nein, ich behaupte sogar, dass überhaupt niemand ausser Nintendo die "Nintendostrategie" fahren kann (SEGA gibt es ja nicht mehr und ATARI ist zu früh ausgestiegen). Dafür gibt es einfach zu viele Dinge, die Nintendo in diesem Sektor geprägt hat. Fast jeder kennt Mario, fast jeder kennt Tetris auf dem Gameboy usw.
Deinorius
2008-07-14, 10:08:31
Die springen einem ins Auge. ;)
P.S.: Allein schon die Darsteller wirken viel präsenter. Das spricht für dich und du kannst für dich sprechen. :tongue:
Darsteller wirken präsenter? oO :|
Microsoft hat natürlich auch richtig Geld investieren müssen, da sie nichts von der XBox360-Hardware selber entwickeln und produzieren konnten. Das mussten alles Dritte machen.
Das stimmt nicht.Die Gpu haben sie anfangs angeblich größtenteils im Alleingang entwicklelt.Das führte dann zu den bekannten Probleme und sie mußten die Hilfe von Ati in Anspruch nehmen.
Die Redmonder hätten zu viel auf Sparsamkeit gesetzt - jedenfalls hinsichtlich des Grafikchips. Anstatt auf Profis wie Nvidia oder AMD (ATI) zu setzen, habe man den Chip eigenständig entwickeln und vom taiwanesischen Hersteller TSMC in Masse produzieren lassen
http://www.pcgames.de/aid,647380/Microsoft_ist_selbst_Schuld_am_Red_Ring_of_Death_der_Xbox_360/
Ziemlich dumm.Kurzfristig ein paar Millionen gespart...
Es ist kein Problem Spieleschmieden für einen Exklusivtitel zu gewinnen. Solche Verträge werden heutzutage eher unter dem Gesichtspunkt der Titelzahl unterschrieben.
Und der Konsolenhersteller muss eventuelle Ausfälle nicht kompensieren,falls doch zuwenig verkauft wird?Wer bitte wird da auf einen Exklusivdeal einlassen?Das ist es doch weniger riskant,alle Plattformen zu bedienen.
Annähernd ist ein wirklich sehr dehnbarer Begriff.
Beim Erscheinen der XBOX360 stand die X1800 schon in den Läden. Ca. 1.5 Monate später dann sogar die X1900. Schon die X1800 hat mehr als die doppelte Bandbreite eines Xenos.
Da helfen dann auch keine Unified-Shader weiter. Denn ein 128Bit SI war damals schon nicht mehr zeitgemäss, wenn man ambitioniert spielen wollte.
Das Problem merkt man ja jetzt langsam. Sobald der Titel richtig gut aussehen soll muss schon für 720p wie die Hölle optimiert werden.
Stell dir mal vor, was man heute noch hätte zaubern können, wenn es ein R520/R580 Verwandter mit 256Bit SI gewesen wäre?
Muss man nicht den enormen Speicherdurchsatz des Edram hinzurechnen?
Der übernimmt ja die Sachen,die viel Bandbreite kosten.
Ich finde, man hätte in Anbetracht der angepeilten Lebenszeit ruhig potentere Hardware bei der XBOX360 und der PS3 nutzen können.
Letztere kam ja noch später auf den Markt und hat dafür sogar noch eine schlechtere GPU. Auweia. Auch den Rest der Architektur finde ich persönlich jetzt nicht so helle, aber STOP! Bevor das hier jetzt wieder losgeht: Nur meine Meinung ohne Anspruch auf Allgemeingültigkeit!
[/QUOTE]
Auf beyond habe ich gar gelesen,daß Nvidia Sony angeboten hat,ein Derivat des 8800 in der Playstation zu verbauen.Sony lehnte ab...
Das hätte die Ps3 wohl noch teurer gemacht.
Ich finde, man hätte in Anbetracht der angepeilten Lebenszeit ruhig potentere Hardware bei der XBOX360 und der PS3 nutzen können.
Letztere kam ja noch später auf den Markt und hat dafür sogar noch eine schlechtere GPU. Auweia. Auch den Rest der Architektur finde ich persönlich jetzt nicht so helle, aber STOP! Bevor das hier jetzt wieder losgeht: Nur meine Meinung ohne Anspruch auf Allgemeingültigkeit!.
RSX schwächer als eine X1800? Na Ihm blamiert sich wieder mal und das mit einer Arroganz wie man ihn kennt.
Die Architektur der PS3 ist super, für Leute die zuviel DirectX im Kopf haben natürlich nicht., dazu zähle ich auch dich. Nicht nur das Sony eigene Wege geht bei ihren Architekturen, nein, auch exotische Hardware die ein Dev erst kennen lernen muss, wird von Sony gerne verbaut.
Zeig mir ein besseres Konzept als die PS3? In der die Konsole nicht nur auf den RSX angewiesen ist, welche Konsole hat so ein Steigerungspotential?
Kompliziert zu handhaben? Ja wenn man es drauf hat stimmt aber auch das Ergebnis.
P.S.: Und hör auf lustig zu sein, denn du bist nicht lustig! Deine glorreichen Auftritte im PS3 vs 360 Thread noch im Hinterkopf habe.
Aquaschaf
2008-07-14, 15:08:44
Wenn AMD etwas flüssiger wäre, dann wäre die Planung einer eigenen Konsole meiner Meinung nach jetzt goldrichtig.
Ich denke das wäre ziemlich das dümmste was sie machen könnten. Hardware ist nur ein kleiner Teil des Produkts Spielkonsole. Alles andere was man dafür braucht ist nicht Teil des Kerngeschäfts von AMD.
Und für einen Neueinsteiger ist das Konsolengeschäft doch total unattraktiv. Eine weitere Konsole müsste sich schon in irgendeiner Hinsicht deutlich von den bereits existierenden absetzen. Die Einstiegskosten und das Risiko wären gigantisch.
Zeig mir ein besseres Konzept als die PS3?
Wenn es rein um die Hardware-Architektur geht: sowohl Wii als auch XBox360.
Simon Moon
2008-07-14, 15:13:35
Naja AMD könnte sich mit MS an einen Tisch setzen und über einen abgespeckten PC diskutieren, was sie wahrscheinlich auch tun und das Produkt nennen sie dann Xbox720 oder so...
Weil sie einfacher zu handhaben sind?
Das war nicht das Thema, guten Tag! :)
RSX schwächer als eine X1800? Na Ihm blamiert sich wieder mal und das mit einer Arroganz wie man ihn kennt.
Das hat er nicht geschrieben.Im Vergleich zu den Grafikkarten,die bei Release der Ps3 aktuell waren(Geforce 8800 Reihe) ist der Rsx ein Reinfall.
Ein abgespeckter 7800Gt löste da nun wirklich keine Begeisterungsstürme aus.
Sorry,aber das ist nun mal so.Inwieweit der Cell die Schwächen des Rsx teilweise kompensieren kann...
Man wird es sehen.
Blaze
2008-07-14, 20:22:07
Naja, die PS3 kam im November 06, der G80 ebenfalls. Wie soll man den bitte in der kurzen Zeit in die PS3 kriegen? Die Devs haben die Konsole ja schon weit vorher haben müssen um Spiele für den Launch fertig zu machen.
Nakai
2008-07-14, 20:32:14
RSX schwächer als eine X1800? Na Ihm blamiert sich wieder mal und das mit einer Arroganz wie man ihn kennt.
Wieso das stimmt doch. Der RSX ist nur ne Abwandlung vom G70. Die X1800XT sollte keine Probleme haben den RSX in höheren Auflösungen zu verkloppen.
128Bit SI lässt grüßen.
mfg Nakai
Wieso das stimmt doch. Der RSX ist nur ne Abwandlung vom G70. Die X1800XT sollte keine Probleme haben den RSX in höheren Auflösungen zu verkloppen.
128Bit SI lässt grüßen.
mfg Nakai
Klar Nakai! 128 SI lässt nicht grüßen. RSX hat auch das SI von Cell, sprich er hängt an 2 getrennten Buses und hat außerdem großeren Cache im Vergleich zu seinen PC Derivaten.
Außerdem ist das ziemlich oberflächlich, eine X1800XT war nicht schneller als eine normale 7800GTX, je nach Game mal der eine oder der andere leichte Vorteile, aber unterm Strich beide gleich schnell.
Die GTX taktete aber nur mit 430Mhz, soviel dazu. RSX ist oberhalb einer 7900GT anzusiedeln.
Zudem hat die PS3 nicht nur den RSX, sondern auch Cell!
Das hat er nicht geschrieben.Im Vergleich zu den Grafikkarten,die bei Release der Ps3 aktuell waren(Geforce 8800 Reihe) ist der Rsx ein Reinfall.
Ein abgespeckter 7800Gt löste da nun wirklich keine Begeisterungsstürme aus.
Sorry,aber das ist nun mal so.Inwieweit der Cell die Schwächen des Rsx teilweise kompensieren kann...
Man wird es sehen.
Abspeckte 7800gt? Weißt du überhaupt wovon du sprichst? Die hatte nur 20 Pipes, RSX hat 24.
Zudem taktet diese deutlich geringer als RSX, selbst die 7800GTX taktet deutlich geringer...
Nakai
2008-07-14, 21:26:57
Klar Nakai! 128 SI lässt nicht grüßen. RSX hat auch das SI von Cell, sprich er hängt an 2 getrennten Buses und hat außerdem großeren Cache im Vergleich zu seinen PC Derivaten.
Außerdem ist das ziemlich oberflächlich, eine X1800XT war nicht schneller als eine normale 7800GTX, je nach Game mal der eine oder der andere leichte Vorteile, aber unterm Strich beide gleich schnell.
Die GTX taktete aber nur mit 430Mhz, soviel dazu. RSX ist oberhalb einer 7900GT anzusiedeln.
Lol, und das Cell-SI braucht natürlich der Cell nicht. Und natürlich unterschlägst du noch die Latenzen die dadurch auf den RSX und den Cell hinzukommen.
Und was bringen die Caches? Genau, nämlich um die Latenzen zu verbergen, was der RSX durch Pipeline-Stalling gut gebrauchen kann.
LOL, ja die Geforce 7er-Serie war ja so schnell, dass die ATIs die ruhig mal verkloppen durften.
Die X1800XT war bei späterer Software oftmals so schnell wie die Geforce 7950GT.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating
Zudem hat die PS3 nicht nur den RSX, sondern auch Cell!
Was interessiert mich Cell?
Natürlich kann man ihn für Shadercodes benutzen, natürlich wieder nicht mit Latenzen und Leistungsabstrichen für die CPU verbunden.
Wenn clever gemacht wird, dann ist es bestimmt lohnenswert, aber ich sehe in diesem Massenmarkt keinen Sinn mehr, zuviele Ressourcen fürs Optimieren des Codes zu machen. Für Exclusivtitel darfs gemacht werden.
mfg Nakai
Als ehemaliger ATi Fanboy solltest du besser ruhig sein Nakai.
Es geht nicht darum wie eine X1800 den RSX bei hohen Auflösungen schlagen würde. Das ist gar nicht vergleichbar, weil du einfach PC und Konsole 1:1 vergleichst. Warum schlug die G7X Serie bei sämtlichen OpenGL Titeln die ATis?
Äpfel und Birnen, RSX arbeitet in einer völlig anderen Umgebung und muss sich mit Sicherheit nicht vor eine X1800 verstecken, denn das musste nichtmal eine 7800GTX, die schwächer ist als RSX.
Die Pipes des RSX stallen außerdem nicht immer, nicht bei optimaler zugeschnittener Software. Die 7950GT entspricht vom Takt her genau dem des RSX, RSX taktet ebenso gleich wie eine 7950GT, hat größere Caches und hat neben dem 128 SI auch das SI von Cell, welches natürlich von Vorteil ist.
Deine Latenzen interessieren ebenso nicht bei zugeschnittener Software.
Was dich Cell interessiert? Na das weiß ich auch nicht. Du sagst es doch selbst, wenn man es clever macht und genau das wird gemacht bei exklusiver Software für PS3.
Cell kann man für soviel mehr verwenden, als nur für "Shadercodes".
Nakai
2008-07-14, 22:22:19
Als ehemaliger ATi Fanboy solltest du besser ruhig sein Nakai.
Es geht nicht darum wie eine X1800 den RSX bei hohen Auflösungen schlagen würde. Das ist gar nicht vergleichbar, weil du einfach PC und Konsole 1:1 vergleichst. Warum schlug die G7X Serie bei sämtlichen OpenGL Titeln die ATis?
Äpfel und Birnen, RSX arbeitet in einer völlig anderen Umgebung und muss sich mit Sicherheit nicht vor eine X1800 verstecken, denn das musste nichtmal eine 7800GTX, die schwächer ist als RSX.
Die Pipes des RSX stallen außerdem nicht immer, nicht bei optimaler zugeschnittener Software. Die 7950GT entspricht vom Takt her genau dem des RSX, RSX taktet ebenso gleich wie eine 7950GT, hat größere Caches und hat neben dem 128 SI auch das SI von Cell, welches natürlich von Vorteil ist.
Deine Latenzen interessieren ebenso nicht bei zugeschnittener Software.
Was dich Cell interessiert? Na das weiß ich auch nicht. Du sagst es doch selbst, wenn man es clever macht und genau das wird gemacht bei exklusiver Software für PS3.
Cell kann man für soviel mehr verwenden, als nur für "Shadercodes".
Denkst du das weiß ich nicht?
Nur damit man mir kein Xbox360-Fantum ankreidet. Ich mag keine Konsolen. Beide Konsolen sind nicht nextgengeeignet.
Woher soll ich wissen, wieso die X1800XT bei der kleinen Anzahl an OGL-Spielen abgestunken ist?
Mir hat es nur gestunken, wenn jemand dem RSX die Leistung der Geforce 7950GT zugesprochen hat. Das ist, wie du es sagtest, nicht möglich.
Die Pipes stallen immer, sobald AF hinzugeschaltet wird(und ab da ziemlich hart). Man kann den Code nur so anpassen, dass er beim Konkurrenten auch stallt, aber das wäre dumm.
Wenn richtig gemacht wird, bemerkt man diese Stalls nicht so häufig.
Der Cell ist nett, aber nicht mehr und nicht weniger. Der Cell wurde so gehyped, aber rauskommen tut bis jetzt nichts. Der Cell ist kein Wunder, dass vom Sony-Gott gesendet wurde um die Welt zu revolutionieren. Er kann gut benutzt werden, aber nicht mehr.
Für die mangelnde Anzahl an Exklusivtiteln kann er bestimmt relativ gut ausgelastet werden.
Achja, ich war ein ATI-Fanboy und ich werde in gewissen Sachen ATI immer etwas positiver gegenüberstehen und deswegen lasse ich mir den Mund nicht verbieten. Vorallem weil mir BQ, also Texturfilterung und AA nicht so am Herzen liegt. Sicher wär es interessant daran rumzuspielen, aber ich sehe die Hardware als gegeben an und ich will einfach darauf zocken. Die BQ ist mir daher weitesgehend egal(und so spiele ich meistens mit reduzierten Texturen usw.)
Deswegen kann ich solchen BQ-geilen Leute nicht wirklich verstehen, ich versuche es dennoch, weitesgehend.
G70 und G71 waren damals keine schlechte Entscheidung, aber mit immer besserer und moderner Software vielen sie zurück.
Also Back2Topic...
mfg Nakai
www.forum-3dcenter.org/vbulletin/showpost.php?p=5372313&postcount=63
Es gibt nicht immer Stalls!
Leute, total off Topic, genau das versaut hier im Forum immer wieder die Konsolen Threads weil hier jeder seine Farbe verteidigen muss, ich glaub es piept.
Hier gehts um die Zukunft und nicht um die Olle Kamellen, das gebashe schenkt euch bitte!!!
RSX schwächer als eine X1800? Na Ihm blamiert sich wieder mal und das mit einer Arroganz wie man ihn kennt.
Die Architektur der PS3 ist super, für Leute die zuviel DirectX im Kopf haben natürlich nicht., dazu zähle ich auch dich. Nicht nur das Sony eigene Wege geht bei ihren Architekturen, nein, auch exotische Hardware die ein Dev erst kennen lernen muss, wird von Sony gerne verbaut.
Zeig mir ein besseres Konzept als die PS3? In der die Konsole nicht nur auf den RSX angewiesen ist, welche Konsole hat so ein Steigerungspotential?
Kompliziert zu handhaben? Ja wenn man es drauf hat stimmt aber auch das Ergebnis.
P.S.: Und hör auf lustig zu sein, denn du bist nicht lustig! Deine glorreichen Auftritte im PS3 vs 360 Thread noch im Hinterkopf habe.
Was soll ich zu diesem geballten Fanboygeschrei bitte noch schreiben?
Vielleicht solltest du mal besser mitlesen, dann verstehst du es auch so wie es geschrieben habe.
Zu deinen Vorwürfen:
DirectX: Ich nutze OSX.
PS3 die Superarchitektur, Cell von Gottes Gnaden: Fazit Fanboy; lach und weiter...
Lustischkeit kennt keine Grenzen, Glorreiche Auftritte: Thade, bist du es? ;D
Ich habe extra dazu geschrieben, dass es nur meine Meinung ist und ich hier nicht schon wieder so einen albernen Zirkus lostreten will.
Aber Bobo der Affe tanzt ja direkt wieder los und braucht Bananen. Dann hüpf mal schön weiter, ich mache da garantiert nicht mit.
Back2Topic.
Btw: Registrier dich mal. Ansonsten hacken die Mitglieder wieder auf allen Gästen rum, nur weil so ein Typ wie du ein schlechtes Bild abgibt.
Oder versteckst du dich gerne hinter der Pseudoanonymität?
Komplexe?
Naja, die PS3 kam im November 06, der G80 ebenfalls. Wie soll man den bitte in der kurzen Zeit in die PS3 kriegen? Die Devs haben die Konsole ja schon weit vorher haben müssen um Spiele für den Launch fertig zu machen.
Der G80 wurde ja jahrelang entwickelt und Nvidia hat Sony angeboten,ein Derivat davon in der Ps3 zu verwenden.Stand so im beyond 3d Forum.
Link?
http://forum.beyond3d.com/showpost.php?p=1141522&postcount=420
Next gen hardware most likely are going to stick to IBM, since it's in the companies control, if they go for Intel they would have to pay probably more to Intel for them to design the CPUs, and they would be tied to a some sort of agreement which limits their vision. Whereas for IBM, for Sony, they pretty much designed the Cell with help from IBM and also Toshiba. The three parties formed STI (Sony, Toshiba and IBM), and they co-developed the chip. They have more control on what they're designing that way, instead of giving Intel all the control. And it's likely a large part of the profit would have to be given to Intel if Intel designs their chips for them. Personally, I think Sony is just going to beef up Cell in the PS3, like 2--4 PPEs with a wider instruction set, 32 SPEs or more for horsepower and speed. They might even make the chip an out-of-order execution type though it is highly unlikely. For the Xbox 3 or 720, most likely they will just use more cores, like 6-12 PowerPC cores. Though i think the Cell design would be better. However, the GPU for the nextbox will be from ATI probably, and PS4 will get something good from Nvidia. Sony really screwed themselves a bit with the 2 Cell concept,[B] had they accept Nvidia's offer to use a derivative G80 earlier (G80 was in development back in 2002), PS3 would be a lot more powerful, a derivative G80 beats out G71 by quite a bit. [B]I hope PS4 will get some hardware close to the PC this time around.
Weitere Quellen habe ich dazu nicht gewonnen.Wenn das stimmen würde,hätte Sony aber einen echten Bock geschossen...:D
Mit nem G80 hätte Sony auch bei Multiplattformtiteln die Nase grafisch vorn gehabt.
Deinorius
2008-07-15, 01:00:03
Mit nem G80 hätte Sony auch bei Multiplattformtiteln die Nase grafisch vorn gehabt. Hätte aber an der derzeitigen Situation dennoch kaum was geändert. Die Konsole wäre entweder noch teurer als jetzt oder Verlust für Sony wäre noch größer.
Das stimmt nicht.Die Gpu haben sie anfangs angeblich größtenteils im Alleingang entwicklelt.Das führte dann zu den bekannten Probleme und sie mußten die Hilfe von Ati in Anspruch nehmen.
Die Redmonder hätten zu viel auf Sparsamkeit gesetzt - jedenfalls hinsichtlich des Grafikchips. Anstatt auf Profis wie Nvidia oder AMD (ATI) zu setzen, habe man den Chip eigenständig entwickeln und vom taiwanesischen Hersteller TSMC in Masse produzieren lassen
http://www.pcgames.de/aid,647380/Microsoft_ist_selbst_Schuld_am_Red_Ring_of_Death_der_Xbox_360/
Ziemlich dumm.Kurzfristig ein paar Millionen gespart...
Ja, entwickeln lassen.
Microsoft kann keine GPU's selber entwickeln, da sie so etwas noch nie gemacht haben.
Wenn schon ein Hardwarehersteller wie Intel immense Probleme damit hat eine leistungsfähige und vor allen Dingen konkurrenzfähige GPU auf den Markt zu werfen, dann kannst du dir ja vielleicht vorstellen wieviel Know-How ein Softwareunternehmen wie Microsoft haben müsste, um selbst Intel hinter sich zu lassen. X-D
Es gibt heute genau zwei Firmen, die in der Lage sind für den Spielebereich leistungsfähige GPU's herzustellen: AMD/ATI und Nvidia. Ende.
Und der Konsolenhersteller muss eventuelle Ausfälle nicht kompensieren,falls doch zuwenig verkauft wird?Wer bitte wird da auf einen Exklusivdeal einlassen?Das ist es doch weniger riskant,alle Plattformen zu bedienen.
Je nach Vertragslage und Ausgangssituation. Würde sich die PS3 besser verkaufen, dann würden wahrscheinlich mehr Leute für diese Plattform Exklusivtitel entwickeln. Logisch, noch nicht geknackt.
Die XBox360 hingegen kann man relativ einfach knacken. Hier hat man dann aber das Online-Ban Problem. Trotzdem entwickeln viele auf dieser "unsicheren" Konsole auch gut offline spielbare Exklusivtitel.
Hat da keiner Angst, dass sich die Spiele nicht verkaufen könnten?
Wichtig ist das Gesamtkonzept. Ein gutes Spiel auf einer Konsole verkauft sich fast immer wie warme Semmel.
Natürlich ist es aber sicherer für mehrere Plattformen zu entwickeln.
Das man als Spieleentwickler auch ein bisschen Geld dafür bekommt, dass man nur für eine Plattform entwickelt ist ebenfalls sehr gut vorstellbar.
Bedenken sollte man dabei aber auch, dass die Spezialisierung auch den Spieleentwicklern Vorteile bieten kann, die sich möglicherweise dann z.B. in der Qualität oder der Entwicklungszeit widerspiegeln können. Das widerum führt zu ABCDEF etc.
Muss man nicht den enormen Speicherdurchsatz des Edram hinzurechnen?
Der übernimmt ja die Sachen,die viel Bandbreite kosten.
Dafür ist er definitiv zu klein. Der eDRAM hat für mich die praktikable Bedeutsamkeit von XRAM bei der X-Fi.
Auf beyond habe ich gar gelesen,daß Nvidia Sony angeboten hat,ein Derivat des 8800 in der Playstation zu verbauen.Sony lehnte ab...
Das hätte die Ps3 wohl noch teurer gemacht.
Noch teurer als 600€?
Mal im Ernst, wer glaubt hier ernsthaft, dass die Hardware beim Erscheinen mehr als 200€ gekostet hat? Es ist natürlich der Cell, der sich wieder amortisieren muss.
Sony ist doch nicht blöd: Die wussten auch, dass der Cell von seiner Architektur her in einer Spielekonsole nichts zu suchen hat.
Wozu brauche ich einen Gleitkommakiller bei Spielen? Oder gibt es neuerdings Spiele, bei denen ich Molekülverbindungen auftrennen und wieder verbinden muss?
Wer glaubt denn wirklich, dass mehrere Altivec/SSE-Einheiten für Spiele nicht reichen würden?
Also was macht man? Man nimmt die fehlerhaften Cell-Prozzis und steckt sie in die PS3. Dann erzählt man überall "ihr müsst euch einarbeiten" "das Teil kann viel mehr", "das Teil kann alles" (welche CPU kann das nicht?) und vor allem "es kann alles besser". Und genau hier ist der Knackpunkt: Er kann eben nicht alles besser, sondern nur bestimmte Sachen viel besser. Aber es sind genau die Sachen, die ich als Spieleentwickler in der Regel auf diesem Leistungslevel überhaupt nicht brauche.
Das ist genauso, als wenn ich mir eine schnelle Pferdekutsche samt Pferden kaufen will, der Händler mir aber versucht Kamele anzudrehen. Begründung: "Die essen weniger, trinken weniger und könne mehr tragen." Ja, aber was interessiert mich das denn? Ich will ja in erster Linie schnell sein.
Wenn ich universelle Leistung brauche, dann brauche ich auch einen universellen Prozessor. Der Cell ist aber nunmal kein universeller Prozessor, sondern stark spezialisiert. Nur eben nicht für den Spielebereich.
Aber es scheitert wie gesagt, MEINER MEINUNG NACH, an noch viel mehr Dingen.
Alleine schon das 128Bit SI und die popelige Speicherbestückung...tss.
256MB RAM hatte ich schon vor der Jahrtausendwende. Wieviel haben 1GB RAM im Jahr 2005 gekostet?
Ds gilt im Übrigen für die PS3 und die XBOX360.
Und jetzt dürfen sich die Entwickler mit so sinnlosen Flaschenhälsen herumschlagen. Das ist doch völliger Schwachsinn.
Ja was hat Cell in einer Spielekonsole verloren. Die CPU kann nämlich rein gar nichts!
Scaled-down Cell CPU beats Intel’s quad-core chip in video transcoding
However, the demonstration results were quite spectacular. The video transcoding process takes about half as long on a SE1000 than on a 3 GHz Intel Core 2 Quad CPU. Keep in mind that this is a very specialized application, while the Core 2 Quad is a much more universal chip, but the simple performance potential is impressive nevertheless. Especially if you consider the fact that the accelerator consumes only 10 to 20 watts.
http://www.tgdaily.com/content/view/37845/135/
Ray-Tracing:
In fact one Cell processor is four to five times faster at ray-tracing the Stanford Bunny than the G80 and the Cell QS20 blade, which has comparable floating point power on paper, is eight to eleven times faster. Both the G80 and Cell crush the AMD Opteron at ray-tracing which is arguably the most popular production rendering processor today. It's also interesting to note that secondary rays are less costly on Cell which is where ray-tracing becomes interesting. Primary ray cast is only interesting from an academic perspective. The real issue is secondary rays and GPUs have traditionally had problems with these do to their incoherent nature. When you factor power into the equation it gets even more interesting, given that Cell is half the size of the G80 and produces five times the ray-tracing performance.
http://www.gametomorrow.com/chart_perf.JPG
http://gametomorrow.com/blog/index.php/2007/09/05/cell-vs-g80/
Raytracing on Cell:
http://de.youtube.com/watch?v=oLte5f34ya8
Real-time Rendering WITHOUT the RSX on Cell:
http://de.youtube.com/watch?v=ehwFOM4CBKA
http://de.youtube.com/watch?v=mDdStxjGELk
Cell SPU Programming:
http://www.insomniacgames.com/tech/articles/0208/insomniac_spu_programming_gdc08.php
Genau Ihm, deine Arroganz hast du uns hier schon oft genug zu Schau gestellt. Wie borniert und ignorant du aber bist, das merkst du wohl selbst nicht?
Du hast absolut keinen Plan über die PS3 und zudem bist du alles andere als neutral.
Cell hat nichts in einer Spielekonsole verloren? Warum nicht, weil er anders ist? Weil er schwieriger zu bändigen ist? Programmierer sind stinkfaul, daher ist es nicht verwunderlich, warum manche Devs und Pseudo-Devs (so einer scheinst du ja zu sein) über den Cell herziehen.
Warum muss ein Troll wie du Leute als Fanboys bezeichnen, nur weil sie an das Potential eines Chips glauben und an die Fähigkeiten der Sony Devs?
Was ein Cell in der Spielekonsole verloren hat, das kannst du zB in Gran Turismo 5 Prologue sehen, wo ist das Spiel auf der Xbox 360 welches mit der Performance und den technischen Daten daherkommt, wie sie in GT5P vorkommen? 1280x1080? Fail gibt kein einziges Rennspiel mit 1280x1080@60fps@2xAA@200k Polys pro Autos mit HDR-Lighting. Wieviele Autos kann man maximal in Forza und PGR4 nehmen? 8, nur 8, in GT5P sind es ganze 16. Schadensmodell und Wetter, ja wird es geben in der Full von GT5.
http://www.abload.de/img/gt16k38.jpg
http://www.abload.de/img/gt52gel.jpg
http://www.abload.de/img/gt7v26.jpg
Die GPU in der PS3 muss ja ordentlich gezaubert haben, oder ist es doch das Konzept der PS3, das Hybrid Real-time Rendering System welches so ein Spiel wie GT5P erst ermöglicht? Scheinbar ist ja Cell doch für was zu gebrauchen.
Schonmal einen Blick auf Killzone 2 geworfen? In welchem Konsolenspiel findet man sonst so einen Polygoncount, solche kinoreifen Post-Processing Effekte, so ein Effektvolles Gesamtwerk hat man auf der Konkurrenz Konsole Xbox 360 bisher auch noch nie gesehen? Schonmal Uncharted gesehen? Sie nutzten das Potential des Cell vereinzelt und jetzt zählt das Spiel schon zu den technisch besten Games überhaupt auf Konsole.
Naughty Dog bescheinigt der PS3 mehr Steigerungspotential als der PS2 und Naughty Dog ist eines der fähigsten Entwicklerteams auf diesem Erdball.
Warte ab bis das Sony Studio Santa Monica God of War 3 vom Stapel lässt, da könnt ihr ganzen Experten dann schon sehen, was ein Cell in einer Spielekonsole verloren hat. Gab ja zu PS2-Zeiten auch gewisse Experten, die eine Dreamcast technisch vor der PS2 sahen und ihr niemals Spiele wie God of War1/2 oder Black, oder GT4 zugetraut hätten, schau dir die alten Threads an.
Du bist nichts als ein Ignorant, du hast ja nichtmal ne PS3 und sprichst meist über Theorie. Von eurer Sorte gibt es hier viele, die meinen das sind die absoluten Oberexperten die alles in den Dreck ziehen könnten, aber außer Coda, Aths und noch ein paar andere hat hier sowieso keiner nen Schimmer wovon er spricht.
Wenn ich universelle Leistung brauche, dann brauche ich auch einen universellen Prozessor. Der Cell ist aber nunmal kein universeller Prozessor, sondern stark spezialisiert. Nur eben nicht für den Spielebereich.
Seit wann braucht man in einer Spielekonsole eine Allesfresser CPU die alles frisst?
Erklär mir das doch bitte du Experte.
Erklär uns doch allen bitte warum Cell nichts in einer Konsole verloren hat, wir sind ja so gespannt was du wieder von dir geben wirst. :)
Warum war die PS3 anfangs sogar mit mehreren Cell CPUs ohne jegliche GPU geplant? Na Ihm, erklär uns das Vorhaben Sonys doch auch!
Warum wird man mit 99,9%iger Sicherheit in der PS4 einen weiteren Cell einbauen, die Cell Roadmap steht, 2010 3 PPEs und 32 SPEs, oder 2012 noch mehr SPEs.
Ach Ihm, man wird in wohl lieber in Kühlschränke und Toaster verplfanzen, in Spielekonsolen wird so ein Monster keine Berechtigung haben. Auch nicht wenn man bedenkt, welches Rendering die Zukunft sein wird. ^^
In Sachen Ray-Tracing schlägt Cell jetzt schon alles auf dem Markt.
Cell ist die Zukunft, das wirst auch du einsehen!
dargo
2008-07-15, 05:58:44
Was ein Cell in der Spielekonsole verloren hat, das kannst du zB in Gran Turismo 5 Prologue sehen, wo ist das Spiel auf der Xbox 360 welches mit der Performance und den technischen Daten daherkommt, wie sie in GT5P vorkommen? 1280x1080? Fail gibt kein einziges Rennspiel mit 1280x1080@60fps@2xAA@200k Polys pro Autos mit HDR-Lighting. Wieviele Autos kann man maximal in Forza und PGR4 nehmen? 8, nur 8, in GT5P sind es ganze 16. Schadensmodell und Wetter, ja wird es geben in der Full von GT5.
Das kann ein Anzeichen für höhere CPU-Last bzw. höhere Auslastung vom Cell in GT5P sein, muss es aber nicht. In DIRT zb. gab es max. 10 Fahrzeuge gleichzeitig. Bei GRID hat man die Anzahl der Fahrzeuge verdoppelt. Trotzdem ist die CPU-Last bei GRID nicht höher.
Ray-Tracing:
wayne?
Wir können ja in Zukunft Spiele mit ein paar statischen Stanford Bunnys machen. :up:
Ausserdem will nicht meinen normalen Programmcode auf der GPU laufen lassen. Deswegen ist der Vergleich hinfällig.
Cell SPU Programming:
http://www.insomniacgames.com/tech/articles/0208/insomniac_spu_programming_gdc08.php
Wenn jemand für eine einzelne Plattform entwickelt und genug Budget/Zeit hat, kann er sich auf die Plattform einlassen. Jemand der Crossplattform entwickeln muss wird einen einzigen Codepfad schreiben und darunter leidet der Cell am meisten.
Wenn alles so einfach ist, frag ich mich warum es bisher nicht mal ne Physik Middleware gibt, die die SPUs unterstütz (abgesehen von der neuen PhysX Beta). Von anderen Middlewares ganz zu schweigen.
Cell hat nichts in einer Spielekonsole verloren? Warum nicht, weil er anders ist? Weil er schwieriger zu bändigen ist? Programmierer sind stinkfaul, daher ist es nicht verwunderlich, warum manche Devs und Pseudo-Devs (so einer scheinst du ja zu sein) über den Cell herziehen.
Sorry aber du hast ganz einfach keinen Plan. Besonders nicht von Programmierung.
Auch wenn ich SPU Programmierung ganz lustig finde, kenn ich niemanden, der dabei wirklich produktiv ist. Das Architektur ist ganz einfach verbaut.
Was ein Cell in der Spielekonsole verloren hat, das kannst du zB in Gran Turismo 5 Prologue sehen, wo ist das Spiel auf der Xbox 360 welches mit der Performance und den technischen Daten daherkommt, wie sie in GT5P vorkommen?
Wie sinnvoll ists eigentlich mit Leuten zu Diskutieren, die Content und Hardware nichtmal unterscheiden könnnen?
Seit wann braucht man in einer Spielekonsole eine Allesfresser CPU die alles frisst?
Seit Spiele nicht mehr nur aus Grafik bestehen. Sobald man Randomzugriff auf größere Datensätze braucht, ist der Cell die Hölle auf Erden.
Warum war die PS3 anfangs sogar mit mehreren Cell CPUs ohne jegliche GPU geplant? Na Ihm, erklär uns das Vorhaben Sonys doch auch!
Zumal da nichts offiziell dran war und das meiste in der Gerüchteküche entstand, ist es klar, dass man verschiedene Designstudien macht, nur um hinterher festzustellen, dass die meisten Bullshit waren.
Warum wird man mit 99,9%iger Sicherheit in der PS4 einen weiteren Cell einbauen, die Cell Roadmap steht, 2010 3 PPEs und 32 SPEs, oder 2012 noch mehr SPEs.
Cell ist die Zukunft, das wirst auch du einsehen!
Wenn die nicht grundlegende Fehler im Design des Cells beseitigen wäre das eine finstere Zukunft. Ausserdem traue ich "Shiggy" bei dieser Entscheidung mehr Weitsicht zu. :)
Das kann ein Anzeichen für höhere CPU-Last bzw. höhere Auslastung vom Cell in GT5P sein, muss es aber nicht. In DIRT zb. gab es max. 10 Fahrzeuge gleichzeitig. Bei GRID hat man die Anzahl der Fahrzeuge verdoppelt. Trotzdem ist die CPU-Last bei GRID nicht höher.
Zudem geht es in deinem Vergleich um kostenlose Crossplattform Grafik-Engine gegen Prestige Grafikengine für eine einzelne Plattform geht. :up:
Ach Leute, lasst diesen komischen Gast doch einfach quatschen. Der kann sich ja noch nichtmal sachlich bleiben.
Seine Art der Argumentation spricht eher für marketingverseucht, als für logisch.
Um dem Ganzen ein Ende zu machen: Ja, der Cell ist super. Er wird die Welt verändern. Wir sind alle doof, du bist schlau. Wir haben alle keine Ahnung, du dafür aber umso mehr. Du bist der Prophet, wir nur Ungläubige.
DU HAST RECHT!
Wenn jemand für eine einzelne Plattform entwickelt und genug Budget/Zeit hat, kann er sich auf die Plattform einlassen.
Insomniac gehört nichtmal zu Sony, es ist ein eingenständiges Studio, welches PS3-Exklusiv entwickelt.
Es ging darum, was Cell in einer Spielekonsole verloren hat, die Antwort habe ich gegeben!
Wie sinnvoll ists eigentlich mit Leuten zu Diskutieren, die Content und Hardware nichtmal unterscheiden könnnen?
Seit wann hat Aulösung, FPS, das AA, die restlichen technischen Daten was mit Content zu tun?
Drehst dir als Gast wieder als so hin wie du es brauchst, Ihm? :)
Seit Spiele nicht mehr nur aus Grafik bestehen. Sobald man Randomzugriff auf größere Datensätze braucht, ist der Cell die Hölle auf Erden.
Schon für die PS3 entwickelt, oder sprichst du wieder nur einmal von deiner grauen Theorie? Ach ich kenne die Antwort schon, Danke Ihm!
Zumal da nichts offiziell dran war und das meiste in der Gerüchteküche entstand, ist es klar, dass man verschiedene Designstudien macht, nur um hinterher festzustellen, dass die meisten Bullshit waren.
Schau dir das Konzept der PS3 mal genauer an, man sieht ihrer Architektur sogar heute noch an, dass sie mir mehreren Cells geplant war. Weichen musste ein Cell und dazugekommen ist die GPU.
Sony hatte das tatsächlich vor und das war nicht irgendeine Designstudie, nicht umsonst ist man erst viel zu spät auf Nvidia zugegangen.
Wenn die nicht grundlegende Fehler im Design des Cells beseitigen wäre das eine finstere Zukunft. Ausserdem traue ich "Shiggy" bei dieser Entscheidung mehr Weitsicht zu. :)
Spricht da wieder der Pseudo-Dev in dir Ihm? Schonmal für die PS3 geproggt, IBM ist doof und pflantzt seine Cells zum Spaß in ihre Computer, der schnellste Computer der Welt basiert auf Cell-Chips, eine wirklich düstere Zukunft.
Ihr Leute seid alle gleich, kaum verlässt jemand den tradionellen Weg, schon muss es schlecht sein. Eure Einstellung zu anderen Architekturen kennen wir ja bereits zu Genüge und dann Dinge niedermachen, wo ihr von vorn herein negativ an die Sache und voreingemommen rangeht.
Ihm sagt zu mir ich kann nicht sachlich bleiben? Ist das wieder so eine Art Ironie von dir Ihm? Deine Argumentation spricht eher für ignorant, so sieht es aus.
Sony, IBM, Insomniac und co sind alle doof, ja der Cell ist schlecht und wird die Welt nicht verändern, denn das können nur Intel CPUs, AMD kann sowieso den Bach runter. ;)
Ich bin doof und Ihm weiß auf alles eine Antwort, du HAST RECHT!
Ja, entwickeln lassen.
Dafür ist er definitiv zu klein. Der eDRAM hat für mich die praktikable Bedeutsamkeit von XRAM bei der X-Fi.
Was ist mit der Möglichkeit,durch Tiling bis zu 4 AA zu haben?Bei Grid wird das offenbar genutzt.
Was ist mit der Möglichkeit,durch Tiling bis zu 4 AA zu haben?Bei Grid wird das offenbar genutzt.
Ihm hat gesprochen! Was er sagt, hat gefälligst nicht kommentiert zu werden. :)
Hydrogen_Snake
2008-07-15, 14:38:51
Zudem geht es in deinem Vergleich um kostenlose Crossplattform Grafik-Engine gegen Prestige Grafikengine für eine einzelne Plattform geht. :up:
So z.B. die White Engine die ja nur auf der PS3 läuft?
Was ist mit der Möglichkeit,durch Tiling bis zu 4 AA zu haben?Bei Grid wird das offenbar genutzt.
Schon wieder dieser unsägliche 4711. Der macht hier nur Ärger.
Drehst dir als Gast wieder als so hin wie du es brauchst, Ihm? :)
Ich habe es im Gegensatz zu dir nicht nötig mit nem Sack überm Kopf durch die Gegend zu laufen. Ergo brauche ich auch keinen Gaststatus um mich frei zu äussern. Nur wo Ihm draufsteht, da ist auch Ihm drin. :ufinger:
Und jetzt troll ruhig weiter. Irgendwann finden die Jungs mit den schönen weissen Jacken auch dich.
Blacksoul
2008-07-15, 15:20:34
So z.B. die White Engine die ja nur auf der PS3 läuft?
Die White Engine (heute Crystal Tools) war schon immer Multiplattform und wurde afaik nie als PS3-Only beworben.
Zur GDC 2007 wurde dann endgültig bestätigt, dass die Engine für Xbox 360, PS3, Windows und Wii gedacht ist.
t.b.d
Haha, einfach nur zum Totlachen diese PS3 Fanboys.
Erstmal wieder genau mit ein paar theoretischen Benchmarks ankommen, die für heutige (rasterisiert gerenderte) Spiele absolut unrepräsentativ sind, und als nächstes auf Marketingmaterial von Spielen verweisen, die erst in über einem Jahr rauskommen werden.
Weiter so, wirklich unterhaltsam ;D
Strelok
2008-07-15, 16:11:14
Hat der Gast jemals behauptet, dass das relevant in Spielen wird? Es ging ihm um den Cell. Natürlich wird Raytracing keine Rolle in einem PS3-Spiel spielen, darauf wollte er doch gar nicht hinaus!?
Marketingmaterial, Gran Turismo 5 Prologue ist bereits raus und dem Gast seine Bilder sind seine eigenen abfotografierten Shots, die ich ja auch schon einmal benutzt habe@Gast.
Aquaschaf
2008-07-15, 16:15:24
Es ging ihm um den Cell.
Ja, und dazu hat er nichts besseres als Marketing-Bullshit zu sagen scheinbar.
Hat der Gast jemals behauptet, dass das relevant in Spielen wird? Es ging ihm um den Cell. Natürlich wird Raytracing keine Rolle in einem PS3-Spiel spielen, darauf wollte er doch gar nicht hinaus!?
Dann lies dir seinen Post nochmal ganz langsam durch.
So z.B. die White Engine die ja nur auf der PS3 läuft?
Dirt ist einer der Vorzeigetitel für die Phyre Engine. Kostenlos, Crossplattform und Sonys öffentliche Spielwiese um Techniken zu präsentieren (zb. Vertex- und Postprocessing auf SPU).
Wer von einer solchen Engine erwartet, dass die besser als andere kommerzielle ist, erwartet von Sony, dass sie den Middlewaremarkt in dem Bereich zerstören. Das wäre aber Selbstmord.
Strelok
2008-07-15, 16:30:45
Ja, und dazu hat er nichts besseres als Marketing-Bullshit zu sagen scheinbar.
Ganz ehrlich, ich sehe kein Marketing-Geschwätz!
Was ist falsch in seinem Post? Ich kann ihm auch nur zustimmen, ist zwar bisschen überspitzt ausgedrückt, aber im Kern korrekt.
deekey777
2008-07-15, 16:37:20
Ganz ehrlich, ich sehe kein Marketing-Geschwätz!
Was ist falsch in seinem Post? Ich kann ihm auch nur zustimmen, ist zwar bisschen überspitzt ausgedrückt, aber im Kern korrekt.
Und ich sehe das Posting eines gesperrten Users, der seine Glaubhaftigkiet durch sein Nachplappern von Marketing-Geschwätz längst verloren hat.
Zu den GT5Prologue-Bildern:
Ich war bei MM, und ich konnte auf der dort aufgestellten PS3 GT5 anspielen. Das seltsame an der Sache war, dass dort soviel Aliasing zu sehen war, dass mir das Mittagessen hochkam.
Strelok
2008-07-15, 16:44:09
Media Markt und Nexgen Konsole ist immer so ne Sache. Ich war letztes mal auch im Saturn und musste mit Entsetzen feststellen, wie die Konsolen Xbox 360 und PS3 an die HDTVs angeschlossen waren, da kam mir auch das Mittagessen hoch. ;)
Ich sage nicht, dass GT5P Aliasing free ist, aber es flimmert nicht wie hölle, Shaderaliasing ist normal in dieser Gen und transparente Texturen und dergleichen werden ja auch nicht erfasst, mit dem einfachen MSAA welches meist eingesetzt wird.
Na ich kann nur aus persönlicher Erfahrung sprechen, auf meinem Plasma sieht das Spiel wirklich absolut genial aus, deekeey777, schau dir das Spiel mal auf einem richtig gutem Setup an.
Natürlich hat es Schwachpunkte, aber auch Sachen die man weder auf dem PC, noch auf der Xbox 360 gesehen hat. Ich habe auch Forza 2 und PGR4 zu Hause. :)
Es ging ihm um den Cell.
Leider leicht off topic, da Sony aus der weiteren Cell Entwicklung ausgestiegen ist, und somit die PS4 wohl keinen Cell bekommen wird...
Blacksoul
2008-07-15, 20:15:57
Leitet Kutaragi überhaupt noch die Entwicklung der PS?
Afaik wurde er doch "befördert".
t.b.d
Undertaker
2008-07-15, 20:23:44
Das kann ein Anzeichen für höhere CPU-Last bzw. höhere Auslastung vom Cell in GT5P sein, muss es aber nicht. In DIRT zb. gab es max. 10 Fahrzeuge gleichzeitig. Bei GRID hat man die Anzahl der Fahrzeuge verdoppelt. Trotzdem ist die CPU-Last bei GRID nicht höher.
Im Vergleich zu Grid oder Dirt hat GT5 aber ganz klar die detaillierteren Wagen :)
dargo
2008-07-15, 20:37:02
Im Vergleich zu Grid oder Dirt hat GT5 aber ganz klar die detaillierteren Wagen :)
Natürlich, aber wie siehts mit der Physik/KI-Last je Fahrzeug im Vergleich aus? Da kann man überhaupt keine Vergleiche anstellen, es sei denn man ist Programmierer dieser Spiele. Was ich damit sagen will - nur weil Game X mehr Fahrzeuge im Vergleich zum Game Y hat heißt es nicht automatisch, dass im ersten Fall die Konsolen-CPU besser ausgelastet wird bzw. mehr Potenzial hat.
Natürlich, aber wie siehts mit der Physik/KI-Last je Fahrzeug im Vergleich aus? Da kann man überhaupt keine Vergleiche anstellen, es sei denn man ist Programmierer dieser Spiele. Was ich damit sagen will - nur weil Game X mehr Fahrzeuge im Vergleich zum Game Y hat heißt es nicht automatisch, dass im ersten Fall die Konsolen-CPU besser ausgelastet wird bzw. mehr Potenzial hat.
Bei Physikeffekten hat der Cell sicher mehr Potenzial als eine gewöhnliche Cpu.Ist er doch schließlich eine Art Vektorprozessor bzw. diesem sehr ähnlich.
Bei der Ki kommt es wohl darauf an,was für einen Algorithmus man dafür braucht.
Konsolen verwenden ja spezialisierte,manche nennen sie auch abgespeckt,Prozessorkerne.Mal davon ausgehend,daß die nächste Generation 8-12 Cores haben wird,könnte man doch 2-4 davon als eine Art Ai-Beschleuniger verwenden,indem bei diesen dann kein Vmx integriert ist.Sondern die auf Spungberechnungen etc. spezialisert sind.
Hoffentlich gibt's bis dahin keine mehr.
Hoffentlich gibt's bis dahin keine mehr.
Unwahrscheinlich.Die Umsätze der Konsolen steigen ja,während die bei Pc-Spielen sinken.
robbitop@work
2008-07-30, 11:59:48
Dafür ist er definitiv zu klein. Der eDRAM hat für mich die praktikable Bedeutsamkeit von XRAM bei der X-Fi.
Der eDRAM ist durchaus sinnvoll. Gerade der Verkehr in den Framebuffer ist nicht nur bandbreitenhungrig sondern auch stark fragmentiert. Das killt jegliche Latenzen für andere Zugriffsbedarfe.
Texturzugriffe hingegen erfolgen in Bursts und sind stark voraussehbar. Deshalb liegen diese auch im großen Unified RAM.
Der eDRAM ist möglicherweise zu klein, um ohne Aufwand mehr als 720p NoAA / 480p 4xAA zu gewährleisten. Aber immerhin bietet er bis dahin eine entscheidende Entlastung des Unified RAMs. Mittels richtig umgesetzten Tiling sind auch 720p mit 2xAA mittlerweile mit keinem allzugroßen Abriss der Performance möglich.
florymonth
2008-07-30, 14:01:08
Der eDRAM ist möglicherweise zu klein, um ohne Aufwand mehr als 720p NoAA / 480p 4xAA zu gewährleisten.
Na ja.Bei Racedriver Grid muss man sich ja eine Menge Mühe gegeben haben,daß das auf der Xbox 360 in 720p mit 4AA läuft.
Unwahrscheinlich.Die Umsätze der Konsolen steigen ja,während die bei Pc-Spielen sinken.
Falsche Aussage aufgrund falscher Informationen.
Angesichts der horrenden Verluste, welche diese Geräte erzeugen, ist durchaus fraglich, ob solche Produkte auf Dauer vertretbar sind. Ich denke nicht, da es marktwirtschaftlichen Gesetzen widerspricht.
Nach Satzzeichen macht man übrigens einen Leerschlag (für Konsolenuser: die grosse, rechteckige Taste ganz unten).
Falsche Aussage aufgrund falscher Informationen.
Angesichts der horrenden Verluste, welche diese Geräte erzeugen, ist durchaus fraglich, ob solche Produkte auf Dauer vertretbar sind. Ich denke nicht, da es marktwirtschaftlichen Gesetzen widerspricht.
Nach Satzzeichen macht man übrigens einen Leerschlag (für Konsolenuser: die grosse, rechteckige Taste ganz unten).
Welche Verluste? Sony hat immer Gewinn mit den Konsolen gemacht. Nintendo auch. MS' erste Konsole ist ausserhalb USA gefloppt, war aber wichtig um ein Standbein in den Markt zu bekommen, was zweifellos gelungen ist. Die 360 wird vermutlich auch noch Gewinn machen, sofern sie nich 2010 abgelöst wird.
Worum es aber geht sind die Entwickler und Publisher und die lieben Konsolen weil deutlich weniger kopiert wird, man eine feste Plattform hat usw usf.
Spielen verlagert sich zunehmen auf Konsolen. :)
Lurtz
2008-07-30, 15:04:07
Welche Verluste? Sony hat immer Gewinn mit den Konsolen gemacht. Nintendo auch. MS' erste Konsole ist ausserhalb USA gefloppt, war aber wichtig um ein Standbein in den Markt zu bekommen, was zweifellos gelungen ist. Die 360 wird vermutlich auch noch Gewinn machen, sofern sie nich 2010 abgelöst wird.
Weil halt nur die jetzigen Finanzberichte gesehen werden... Das ist genauso falsch wie andersherum den PC tot zu reden.
florymonth
2008-07-30, 15:27:18
Weil halt nur die jetzigen Finanzberichte gesehen werden... Das ist genauso falsch wie andersherum den PC tot zu reden.
Wobei Microsoft im vergangenen Geschäftsjahr bereits einen Gewinn gemacht hat.
http://www.gamesindustry.biz/articles/microsoft-entertainment-division-posts-426-million-gain
Dafür ist er definitiv zu klein. Der eDRAM hat für mich die praktikable Bedeutsamkeit von XRAM bei der X-Fi.
Dann hast du ihn nicht verstanden. Die Xbox-GPU rendert ausschließlich in den eDRAM und kann damit praktisch alle Framebuffer-Operationen ohne Geschwindigkeitsverlust oder Bandbreitenverbrauch aus dem normalen RAM ausführen.
Es ist nicht nur ein weiterer Speicher sondern die gesamten ROPs hängen da mit drin. Genauer gesagt kann man ihn für gar nichts anderes verwenden.
florymonth
2008-08-01, 15:04:55
http://winfuture.de/news,41206.html
Na ja,bei Larrabee muss der Stromverbrauch allerdings deutlich unter 300 Watt
sinken, damit er für einen Spielkonsole in Frage kommt.
Spasstiger
2008-08-02, 13:48:50
Wegen der GPU würde ich mir keine Sorgen machen bei den zukünftigen Konsolen, die Xbox 360 zumindest hatte beim Release ja einen echten High-End-Chip drin. Und das wird auch beim Release der nächsten Konsolengeneration nicht anders sein. Ob nun Nvidia, AMD/ATI oder Intel die Chips liefert, ist letztlich auch nicht so wichtig.
Interessanter finde ich, wie sich generell das Verhältnis von PC zu Konsole entwickelt. Schon die heutigen Konsolen haben Fähigkeiten, die man früher nur dem PC zugeschrieben hätte. Und vermutlich werden die nächsten Konsolen noch weit leistungsfähiger, vielleicht ist es irgendwann normal, am TV zu surfen, seine Mails zu lesen und die Urlaubsfotos anzuschauen.
Auch die Spieleentwickler scheinen immer stärker die Plattform Konsole zu bevorzugen, PC-Ports haben eine zunehmend niedrigere Priorität.
Die Konsole wird immer mehr zum Spiele-PC und der PC immer mehr zum reinen Arbeitstier.
Ich frage mich, ob die Industrie generell dazu übergehen wird, Spiele nur noch auf Konsolen zu veröffentlichen, vor allem, wenn zukünftige Konsolen auch dem Wunsch nach User-Modifikationen von Spielen gerecht werden können.
P.S.: Ganz gut in die derzeitige Entwicklung passt auch, dass Grafikkarten zunehmend für Computing-Zwecke genutzt werden, siehe z.B. CUDA. Die GPU-Entwickler suchen offenbar schon nach weiteren Verwendungsmöglichkeiten für den Fall, dass der Zockermarkt einbricht. Zumindest auf der kommerziellen Spieleschiene wird der PC immer mehr vernachlässigt. Crysis war die letzte größere Entwicklung, bei der der PC im Vordergrund stand.
AnarchX
2008-08-02, 14:10:48
Wegen der GPU würde ich mir keine Sorgen machen bei den zukünftigen Konsolen, die Xbox 360 zumindest hatte beim Release ja einen echten High-End-Chip drin. Und das wird auch beim Release der nächsten Konsolengeneration nicht anders sein. Ob nun Nvidia, AMD/ATI oder Intel die Chips liefert, ist letztlich auch nicht so wichtig.
Wobei es aber bei Konsolen gewisse Grenzen im Bezug auf die Thermik gibt und wo schon Xenos und RSX mit unter 100W nicht ganz unkritisch waren, so kann ich mir kaum vorstellen, dass man in Zukunft eine High-End-GPU mit >=150W verbauen kann.
Die 300W für Larrabee sind imo nebenbei auch Unsinn, das ist nur die Angabe mit wieviele eine PCIe2 GPU versorgt werden kann.
dargo
2008-08-02, 14:17:45
Wobei es aber bei Konsolen gewisse Grenzen im Bezug auf die Thermik gibt und wo schon Xenos und RSX mit unter 100W nicht ganz unkritisch waren, so kann ich mir kaum vorstellen, dass man in Zukunft eine High-End-GPU mit >=150W verbauen kann.
Eben, die Thermik ist mit das größte Problem bei diesen Boxen. Eine G260/280GTX oder HD4870 würde kaum in so einer Box überleben. In 32nm vielleicht schon, aber welche GPUs haben wir im PC-Bereich dann mit 32nm? Kurz - ich glaube nicht, dass in den nächsten Konsolen High-End verbaut wird.
florymonth
2008-08-02, 16:09:32
Und vermutlich werden die nächsten Konsolen noch weit leistungsfähiger, vielleicht ist es irgendwann normal, am TV zu surfen, seine Mails zu lesen und die Urlaubsfotos anzuschauen.
Also das geht jetzt schon in vollkommen ausreichender Geschwindigkeit.
Der nächste Schritt wäre eher der zum Homecomputer.Eine Htpc mit dem Komfort einer Spielkonsole.
florymonth
2008-08-02, 16:11:44
Eben, die Thermik ist mit das größte Problem bei diesen Boxen. Eine G260/280GTX oder HD4870 würde kaum in so einer Box überleben. In 32nm vielleicht schon, aber welche GPUs haben wir im PC-Bereich dann mit 32nm? Kurz - ich glaube nicht, dass in den nächsten Konsolen High-End verbaut wird.
Zur Not werden die Gehäuse wieder ein wenig größer und/oder Technik aus dem Notebookbereich wird eingesetzt,um Temperaturen und Stromverbrauch niedrig zu halten.Da habe ich viel weniger Bedenken.Sogar Sli in Notebooks ist ja möglich...
Wobei Konsolen ja nicht so flach wie Notebooks sein müssen und die Gpus so weniger optimiert werden müssen und weniger kosten werden.
dildo4u
2008-08-02, 16:15:16
Eben, die Thermik ist mit das größte Problem bei diesen Boxen. Eine G260/280GTX oder HD4870 würde kaum in so einer Box überleben. In 32nm vielleicht schon, aber welche GPUs haben wir im PC-Bereich dann mit 32nm? Kurz - ich glaube nicht, dass in den nächsten Konsolen High-End verbaut wird.
Bei der PS3 werden leise mit einem 120 Lüfter bis zu 200Watt abgeführt da ist also definitiv Luft nach oben.Eine CPU in 32nm mit ca 60-70 Watt TDP und eine GPU mit der Leistung eines RV770 dürfte 32nm unter 80 Watt kommen.Macht grad mal 150 Watt für die Kernkomponenten.
Schau dir doch nur mal Laptops mit ajtueller Hardware an. Die Kühlung wird kein Problem darstellen
Seit wann gibt es aktuelle Hw in Laptops?
Und selbst wenn es aktuelle HW wäre, heißt das nicht, dass die HW High End ist.
Konsolen müssen über mehrere Jahre eine Grafik ermöglichen die dem aktuellen High End auf PCs wenigstens ähnlich ist und das ist mit einem IGP nicht möglich.
Sehe eher ein Problem darin, das MS wieder einen Frühstart hinlegen wird gegenüber Sony und Nintendo diesmal. Das am Nachfolger der Box gearbeitet wird ist bekannt und wurde auch glaube 2mal schon bestätigt (Juni08 letztes mal).
Da CPU Leistung mit den 3 Cores bisher genug vorhanden ist, denke ich das sich hier nicht viel tun wird. Eventuell ein nativer Quadcore, wenn überhaupt. Vieleicht 2 GPUs, eine große für die Grafik und eine kleine Einheit mit dediziertem DVD-Bluray Beschleunigung und Physik Berechnungen.
Diesmal wird man, denke ich, nicht mehr auf spezielle Hardwareteile wie den EDRAM setzen. Generell Purpose wie bei der ersten Xbox ist einfach günstiger, und wenn AMD im Boot bleibt, wird die Grafikeinheit ein angepasster RV770 werden. Da der Tesselator schon länger in den AMD GPUs drin ist, wird die Konsole zwischen DX10 und DX11 Techlvl angespiedelt, was auch vollkommen ausreicht. 1GB Speicher für Grafik und CPUs ist wohl realistisch, MS wird bemerkt haben, das für 1080p (Ziel der Next-Gen) ein 256Bit SI unabdinglich ist. Im PC Bereicht ist es ja schon im Mainstream Bereich angelangt, dann wird es in 2 Jahren auch in einer Konsole zu finden sein. Produktionskosten der GPU mit Speicher dürfen ja 80$ nicht überschreiten (war glaube auch das Ziel der Xbox360).
256Bit SI und GDDR5 müssen nicht zusammen auftreten, da GDDR5 im Jahr 2010 spätestens auf allen Grafikkarten der Welt verbaut sein wird, und die Produktion von GDDR3-4 zurückgefahren wird.
Seit wann gibt es aktuelle Hw in Laptops?
Umwerfende Performance mit führender Core2 Duo-Prozessorleistung, zwei SLI 512 MB NVIDIA® GeForce® 8800M GT-Grafikkarten und 4 GB Speicherplatz.
http://www1.euro.dell.com/content/products/productdetails.aspx/xpsnb_m1730?c=de&cs=dedhs1&l=de&s=dhs
Und nun setze das mal in relation mit dem Gehäuse einer PS3, wobei dort auch noch das Netzteil mit im Gehäuse verbaut wurde. Es wird kein Lühlungsproblem bei einer Konsole geben, NEVER!!!!!!!!!!
Umwerfende Performance mit führender Core2 Duo-Prozessorleistung, zwei SLI 512 MB NVIDIA® GeForce® 8800M GT-Grafikkarten und 4 GB Speicherplatz.
http://www1.euro.dell.com/content/products/productdetails.aspx/xpsnb_m1730?c=de&cs=dedhs1&l=de&s=dhs
Und nun setze das mal in relation mit dem Gehäuse einer PS3, wobei dort auch noch das Netzteil mit im Gehäuse verbaut wurde. Es wird kein Lühlungsproblem bei einer Konsole geben, NEVER!!!!!!!!!!
Ne 8800 M! GT bezeichnest du als aktuelle HW?
Erstaunlich!
Aber du hast Recht!
Es wird nie ein Kühlungsproblem bei Konsolen geben.
Aber dann stellt sich die Frage, wer kauft eine Konsole für über 2000€?
dargo
2008-08-02, 18:27:56
Schau dir doch nur mal Laptops mit ajtueller Hardware an. Die Kühlung wird kein Problem darstellen
Du weißt aber schon was eine G8800M GTX ist oder?
http://www.nvidia.de/page/geforce_8800m.html
Das ist Leistung unter einer G80GTS.
Bei der PS3 werden leise mit einem 120 Lüfter bis zu 200Watt abgeführt da ist also definitiv Luft nach oben.
200W? Wo sollen die herkommen? :)
AnarchX
2008-08-02, 18:42:33
Da ich hier einige unschöne Beiträge entfernen musste, bitte ich nun daraum ein angemessenes Niveau an den Tag zu legen. Ansonsten wird der Thread geschlossen und bleibt dann auch zu.
AnarchX
2008-08-02, 18:45:48
Den Vergleich mit Notebook-Grafik-HW finde ich nicht besonders praktikabel, da diese doch ein erheblich schlechteres P/L-Verhältnis aufweist, als normale Desktop-HW und dann wohl nicht unbedingt in Konsolenkonzept passt, was möglichst unter $1000 Herstellungskosten liegen sollte.
So wird wohl NV momentan sicherlich einiges über $500 für das MXM-Modul der 9800M-GTX verlangen, die von der Leistung immernoch unter einer 8800GT liegt.
Eine CPU in 32nm mit ca 60-70 Watt TDP und eine GPU mit der Leistung eines RV770 dürfte 32nm unter 80 Watt kommen.Macht grad mal 150 Watt für die Kernkomponenten.
Naja, wir gingen aber hier von der Spasstigers These aus, dass in den Next-Gen-Konsolen sich eine GPU befindet, die sich im gleichen Verhältnis wie Xenos zu damaligen Desktop-GPUs, zu den dann aktuellen GPUs verhält.
Und das ist einiges mehr als ein 32nm RV770 und eben deshalb auch die Zweifel, ob man soetwas mit vertrettbaren Aufwand in der Größe einer normalen Konsole kühlen kann, ohne eine störende Lautstärke.
dildo4u
2008-08-02, 18:46:39
200W? Wo sollen die herkommen? :)
Die erste PS3 Version mit 90nm Cell und 90nm RSX brauchte 200 Watt max.Hinterm Netzteil gemessen also braucht die Hardware ca 180Watt.
In Spielen schwankt der Stromverbrauch munter zwischen 160 Watt in den Menüs und bis zu 200 Watt bei Spielszenen. Allerdings scheint hier die Obergrenze noch nicht erreicht zu sein, so dass abzuwarten bleibt, was die PlayStation 3 bei gleichzeitiger Maximalbelastung von CPU und GPU in der Lage ist zu verbrauchen
http://www.computerbase.de/artikel/hardware/multimedia/2007/test_sony_playstation_3/24/#abschnitt_stromverbrauch
Den Vergleich mit Notebook-Grafik-HW finde ich nicht besonders praktikabel, da diese doch ein erheblich schlechteres P/L-Verhältnis aufweist, als normale Desktop-HW und dann wohl nicht unbedingt in Konsolenkonzept passt, was möglichst unter $1000 Herstellungskosten liegen sollte.
So wird wohl NV momentan sicherlich einiges über $500 für das MXM-Modul der 9800M-GTX verlangen, die von der Leistung immernoch unter einer 8800GT liegt.
Es geht mir auch um die Kühlung auf kleinem Raum ;) Und das dürfte bei der grösse der PS3 oder XBox360 keinerlei Probleme geben!
dargo
2008-08-02, 19:06:43
Die erste PS3 Version mit 90nm Cell und 90nm RSX brauchte 200 Watt max.Hinterm Netzteil gemessen also braucht die Hardware ca 180Watt.
Eben darauf wollte ich hinaus. :)
Ich glaube aber kaum, dass das PS3-NT eine Effizienz von 90% aufweist. Ich lasse mich gerne aber auch vom Gegenteil überzeugen. Da bei Konsolen überall gespart werden muss würde ich eher von max. 75% ausgehen, sprich netto 150W für die Hardware.
Wer sagt denn, das nicht ein 220W Netzteil verbaut wurde ;)
dargo
2008-08-02, 19:12:26
Wer sagt denn, das nicht ein 220W Netzteil verbaut wurde ;)
Was hat das mit dem Thema zu tun? Kann es sein, dass du nicht weißt was die Effizienz vom NT überhaupt ist? :)
Naja so pauschal abzurunden... die 80GB USA Version brauch sicher noch mehr, hat ja auch eine PS2 onboard, da sind 200Watt schnell erreicht. Und die Version hat ja auch mehr als ein Lüfter.
Die jetzige EU 40GB Version benötigt bei mir 110Watt am Meßgerät, und sie hat nur ein Lüfter und laut isse nicht. Der Lüfter hat allerdings auf der kleinsten Stufe das typische puslierende Geräusch von ausgebremsten Lüftern. Ist allerdings nur Nachts bei Stille hörbar :)
Mit dem richtigen Design und etwas Spielraum im Gehäuse sind sicher 250Watt kühlbar, Next-Gen Rdy und Stromsparfunktionen sollte die Gen dann auch haben.
Wegen der GPU würde ich mir keine Sorgen machen bei den zukünftigen Konsolen, die Xbox 360 zumindest hatte beim Release ja einen echten High-End-Chip drin.
Highend mit 500Mhz und 128Bit SI?
Meint ihr ATi ist so blöd und verbaut in der 360 einen Wunderchip während man auf dem PC einen lahmen Chip launched?
Warum R520/580 anstatt C1?
Mensch Dargo. Wenn die PS3 laut Dildo ~200W verbraucht und du was von eff laberst, woher weisst du was für ein Netzteil verbaut wurde? Auf was beruhen deine schlauen rechnungen? Auf ein 200W Netzteil, auf ein 250 oder 300W Netzteil?
Komm Dargo, ich warte. Ich bin in gegensatz zu dir Elektroniker :) Ach ja, Sony gibt die PS3 mit 380W an! Wie du da auf 150W kommst und ein 200W Netzteil ist mir ein Rätsel!
http://de.wikipedia.org/wiki/Playstation_3
Die Leistungsaufnahme des Systems liegt nach Angaben von Sony im Betrieb bei 150–200 Watt.[40] Als maximale Leistungsaufname wird 380 Watt angegeben.[41] Messungen zeigen einen realen Stromverbrauch von 1,0 Watt im Standby, 179,0 Watt im Idle-Zustand und 203,0 Watt im Betrieb.[42]
P.S Und das bisher nur 200W zustande gekommen sind, liegt daran da das volle Potential der PS3 noch nicht genutzt wurde. Folding Home, ohne einsatz der GPU, saugt schon 195W aus dem Netz.
dargo
2008-08-02, 19:29:19
Ach ja, Sony gibt die PS3 mit 380W an! Wie du da auf 150W kommst und ein 200W Netzteil ist mir ein Rätsel!
:confused:
Wo habe ich was vom 200W NT erzählt? Dildo meinte die PS3 müsste bei ca. 180W netto (also vor dem NT) liegen wenn CB 203W gemessen hat. Das bedeutet, dass das PS3-NT bei dieser Last eine Effizienz von ~90% aufweisen muss. Und eben das kann ich nicht glauben bei einer Hardware wo man an jeder Ecke sparen muss. Aktuelle PC-NTs mit hohen Wirkungsgraden (ca. 85-87%) sind nicht gerade billig.
Die von mir genannten 150W sind ganz einfach. Hinter dem NT gemessene ~200W ergeben bei einem NT mit 75% Effizienz diese Leistung für die Komponenten.
AnarchX
2008-08-02, 19:29:36
Als Elektriker solltest du aber den Zusammenhang zwischen dem Wirkungsgrad und dem Verbrauch hinter und vor dem Netzteil kennen:
http://www.3dcenter.org/artikel/zieht-mein-600w-netzteil-immer-600w-aus-der-steckdose
Deshalb ist dargos Rechnung nämlich gar nicht so verkehrt, aus Kostengründen würde ich auch nicht gerade ein NT mit Wirkungsgrad >80% erwarten.
Ich gehe sogar von über 80% aus. Und des weiteren sind die 200W noch nicht die Spitze des Eisberges bei der PS3 (alte Version)
_DrillSarge]I[
2008-08-02, 19:34:33
Ich gehe sogar von über 80% aus. Und des weiteren sind die 200W noch nicht die Spitze des Eisberges bei der PS3 (alte Version)
und das nt kostet dann alleine 100€? was soll dann die konsole insgesamt kosten? ;)
dargo
2008-08-02, 19:36:40
Ich gehe sogar von über 80% aus.
Was macht dich so sicher? Im PC-Bereich werden nicht ohne Grund die besten NTs, was die Effizienz angeht erst im Bereich von 500W aufwärts gebaut/verkauft. Schwächere NTs mit ebenso guter Effizienz würde man wegen hohem Preis kaum absetzen können.
Bedenke, je höher der Wirkungsgrad, je kleiner die Abwärme, spart also kosten in der Kühlung und im Raum!
Chris2CB
2008-08-02, 19:40:32
Als Elektriker solltest du aber den Zusammenhang zwischen dem Wirkungsgrad und dem Verbrauch hinter und vor dem Netzteil kennen:
http://www.3dcenter.org/artikel/zieht-mein-600w-netzteil-immer-600w-aus-der-steckdose
Deshalb ist dargos Rechnung nämlich gar nicht so verkehrt, aus Kostengründen würde ich auch nicht gerade ein NT mit Wirkungsgrad >80% erwarten.
Das verwendete NT ist ja PS3 only und kann perfekt, kostengünstig dafür produziert werden inkl. einigermaßen hohem Wirkungsgrad.
Chris2CB
2008-08-02, 19:41:59
Was macht dich so sicher? Im PC-Bereich werden nicht ohne Grund die besten NTs, was die Effizienz angeht erst im Bereich von 500W aufwärts gebaut/verkauft. Schwächere NTs mit ebenso guter Effizienz würde man wegen hohem Preis kaum absetzen können.
Was ist mit meinem Seasonic S12/2, das 330Watt hat und trotzdem 80%Plus????? Achso, teuer ist das auch nicht.
_DrillSarge]I[
2008-08-02, 19:42:20
Das verwendete NT ist ja PS3 only und kann perfekt, kostengünstig dafür produziert werden inkl. einigermaßen hohem Wirkungsgrad.
ps3 only = keine massenware = teuer ;)
Spasstiger
2008-08-02, 19:49:20
Highend mit 500Mhz und 128Bit SI?
Meint ihr ATi ist so blöd und verbaut in der 360 einen Wunderchip während man auf dem PC einen lahmen Chip launched?
Warum R520/580 anstatt C1?
Xenos war mindestens genauso breit wie der etwas später erschienene R580 und vom Featureset her ist er teilweise auch moderner. Das 128-Bit-SI stimmt so auch nicht, Xenos verwendet den eDRAM für die ROPs und als Framebuffer und der eDRAM ist mit einer größeren Bandbreite angebunden als der Speicher auf einer GeForce GTX 280.
Was die Shaderleistung und Texelfüllrate angeht, übertrifft Xenos z.B. eine wesentlich später erschienene Radeon HD2600 XT (216 GFlops und 8 Gigatexel/s vs. 192 GFlops und 6,4 Gigatexel/s). Architekturell unterscheiden sich die Radeon-HD-Karten und Xenos nicht grundlegend.
Als die Xbox 360 erschien, waren aber gerade mal die Radeon X1800 XT als schnellste und modernste Karte am Markt (128 GFlops Pixelshader, 10 Gigatexel/s).
Der 2007 erschienene R600 war eigentlich ein gepimpter Xenos ohne DRAM mit auf DX10-Tauglichkeit vervollständigtem Featureset. Der Xenos war Ende 2005 eine echte Spitzentechnologie und der niedrige Takt war wohl ein Tribut an den Energieverbrauch.
P.S.: Xenon brachte man aus mehreren Gründen nicht in der ursprünglichen Form für den PC:
- er hatte keine vollständige SM3.0-Unterstützung
- eDRAM ist für den PC eher ungeeignet, weil er nur bis zu einer gewissen Auflösung sinnvoll funktioniert
- mit dem R580 war schon ein hervorragender Chip in der Pipeline (und ja, ein großer IHV wie ATI hat immer mehrere Parallelentwicklungen)
Chris2CB
2008-08-02, 19:50:13
I[;6697756']ps3 only = keine massenware = teuer ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395667
_DrillSarge]I[
2008-08-02, 20:01:59
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395667
die zahlen sind keineswegs beeindruckend. wieviele pcs (mit 08/15 300w netzteilen) werden wohl im gleichen zeitraum verkauft? 10x soviele?
konsolenhardware entspricht immer irgendeinem proprietären format und keinem standardisierten (atx etc.). somit teurer.
dargo
2008-08-02, 20:06:50
Was ist mit meinem Seasonic S12/2, das 330Watt hat und trotzdem 80%Plus????? Achso, teuer ist das auch nicht.
Eine PS3 wird wohl kaum ein ATX-NT gebrauchen.
Was hat das jetzt bittte mit ATX zu tun? Du hast in den Raum geschmissen das erst höher Netzteile mit guter Eff. hergestellt werden und er hat das gegenteil bewiesen.
I[;6697794']die zahlen sind keineswegs beeindruckend. wieviele pcs (mit 08/15 300w netzteilen) werden wohl im gleichen zeitraum verkauft? 10x soviele?
Und wieviele mit dem exakt gleichen Netzteil der gleichen Firma? :P
Xenos war mindestens genauso breit wie der etwas später erschienene R580 und vom Featureset her ist er teilweise auch moderner. Das 128-Bit-SI stimmt so auch nicht, Xenos verwendet den eDRAM für die ROPs und als Framebuffer und der eDRAM ist mit einer größeren Bandbreite angebunden als der Speicher auf einer GeForce GTX 280.
Was die Shaderleistung und Texelfüllrate angeht, übertrifft Xenos z.B. eine wesentlich später erschienene Radeon HD2600 XT (216 GFlops und 8 Gigatexel/s vs. 192 GFlops und 6,4 Gigatexel/s). Architekturell unterscheiden sich die Radeon-HD-Karten und Xenos nicht grundlegend.
Als die Xbox 360 erschien, waren aber gerade mal die Radeon X1800 XT als schnellste und modernste Karte am Markt (128 GFlops Pixelshader, 10 Gigatexel/s).
Der 2007 erschienene R600 war eigentlich ein gepimpter Xenos ohne DRAM mit auf DX10-Tauglichkeit vervollständigtem Featureset. Der Xenos war Ende 2005 eine echte Spitzentechnologie und der niedrige Takt war wohl ein Tribut an den Energieverbrauch.
P.S.: Xenon brachte man aus mehreren Gründen nicht in der ursprünglichen Form für den PC:
- er hatte keine vollständige SM3.0-Unterstützung
- eDRAM ist für den PC eher ungeeignet, weil er nur bis zu einer gewissen Auflösung sinnvoll funktioniert
- mit dem R580 war schon ein hervorragender Chip in der Pipeline (und ja, ein großer IHV wie ATI hat immer mehrere Parallelentwicklungen)
Du solltest aufhören theoretische Maximalleistungen zu vergleichen, ist doch absout sinnlos mit diesen Zahlen herumzuschmeißen.
Jeder R580 macht kurzen Prozess aus Xenos. Man hat ja gesehen wie der Nachfolger des R580 gefloppt ist, R600 war ein Reinfall.
dargo
2008-08-02, 20:33:48
Was hat das jetzt bittte mit ATX zu tun? Du hast in den Raum geschmissen das erst höher Netzteile mit guter Eff. hergestellt werden und er hat das gegenteil bewiesen.
Dann belege mir erstmal, dass die aktuellen Konsolen 80 Plus NTs verwenden. Ansonsten hat jegliche weitere Diskussion zu diesem Thema keinen Sinn.
Was hat ATX deiner Meinung nach mit der Effiziens eines Netzteiles zu tun? Erkläre uns das doch mal allen!
siehe dazu auch hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6697798&postcount=437
I[;6697756']ps3 only = keine massenware
Die Verkaufszahlen von jeder PS3-Revision dürften deutlich über der eines Netzteilmodells liegen.
AffenJack
2008-08-02, 23:54:26
würd ich auch von ausgehen, allerdings dürfte das teil da drin trotzdem keine >80-effizienz
ham. 2006 kamen die 80plus netzteile erst langsam in mode ,warn noch teuer genug und sonys kosten auch hoch genug, dass man sich das wohl gespart hat. Würde auch 75% erwarten, damals hats eh keinen interessiert.
Chris2CB
2008-08-03, 00:21:20
würd ich auch von ausgehen, allerdings dürfte das teil da drin trotzdem keine >80-effizienz
ham. 2006 kamen die 80plus netzteile erst langsam in mode ,warn noch teuer genug und sonys kosten auch hoch genug, dass man sich das wohl gespart hat. Würde auch 75% erwarten, damals hats eh keinen interessiert.
Es schreiben doch hier alle immer so groß das die PS3 subventioniert wird, oder etwa nicht???Mein Beispiel mit dem Seasonic ist im übrigen das Gegenteil, das NT muss sogar noch Gewinn abwerfen.
Ein Blu Ray Player war 2006 im übrigen auch extrem teuer. Bei den hohen Stückzahlen wird Sony sicher auch an etwas hochwertigere Bauteile günstig ran kommen, man braucht das Zeug ja eh Container weise.
Es geht Sony sicher am Arsch Vorbei wieviel Strom eine PS3 zieht und wie effizient aus dieser sicht das NT ist, aber wie schon der Gast geschrieben hat muss die Hitze dann leider auch abgeführt werden und bei den aktuellen NT's hat ja schon fast der Kühler an sich nen höheren Wert als der Rest( ja etwas übertrieben), dazu kommt das der Rest auch mit aufgewärmt wird und mit eng zusammen bauen geht das dann nur noch bedingt.
Ein Wirkungsgrad von um die 80%( im optimalfall) halte ich daher nicht für ausgeschlossen, aber 80 Plus wie es bei den PC NT's ist, wird das wohl weniger sein, also auf den Lastberreich optimiert.
Spasstiger
2008-08-03, 10:47:09
Du solltest aufhören theoretische Maximalleistungen zu vergleichen, ist doch absout sinnlos mit diesen Zahlen herumzuschmeißen.
Jeder R580 macht kurzen Prozess aus Xenos. Man hat ja gesehen wie der Nachfolger des R580 gefloppt ist, R600 war ein Reinfall.
Ich bin vom R580 auf den R600 umgestiegen und wurde in den für mich relevanten Settings mit ~80% Geschwindigkeitszuwachs belohnt.
Jedenfalls war Xenos zum Release-Zeitpunkt ein High-End-Chip. Er hatte damals zusammen mit dem eDRAM auch mehr Transistoren als der damals auf den Markt gekommene R520.
.
Jedenfalls war Xenos zum Release-Zeitpunkt ein High-End-Chip.
Leider schließen sich das Segment "High-End" und "128Bit-SI" gegenseitig aus...
Spasstiger
2008-08-03, 10:54:37
Leider schließen sich das Segment "High-End" und "128Bit-SI" gegenseitig aus...
Bldösinn, das eDRAM-Konzept hat das Bandbreitenproblem für die relevanten Auflösungen gut gelöst. 256 GB/s zum Framebuffer sind zu wenig?
robbitop
2008-08-03, 11:46:00
Es sind 32 GiB/s zum Daughter-DIE. Durch Komprimierung ect holt man effektiv zwar mehr heraus, aber die 256 GiB/s sind nur ein theoretischer Wert.
Spasstiger
2008-08-03, 12:02:52
Es sind 32 GiB/s zum Daughter-DIE. Durch Komprimierung ect holt man effektiv zwar mehr heraus, aber die 256 GiB/s sind nur ein theoretischer Wert.
Ok, das war mir neu.
Übrigens: Es sind 32 GB/s und 256 GB/s, nicht 32 GiB/s und 256 GiB/s. 32 GiB/s würde bei einem Takt von 500 MHz eine Busbreite von 549,756 Bit bedeuten. ;)
Der Blödsinn mit GiB/s und MiB/s bei Bandbreiten wird auch von der PC Games Hardware immer wieder publiziert, was ich in deren Forum auch schon bemängelt habe. Scheint aber außer mir niemanden zu stören.
_DrillSarge]I[
2008-08-03, 12:04:34
Die Verkaufszahlen von jeder PS3-Revision dürften deutlich über der eines Netzteilmodells liegen.
eines einzigen modells ja, aber in atx nts werden auch sehr viele standardisierte komponenten verwendet -> massenproduktion. dies wollte ich damit ausdrücken.
Wer sagt dass das im PS3-Netzteil nicht der Fall ist? Das ist doch Unfug was du da erzählst.
Es sind 32 GiB/s zum Daughter-DIE. Durch Komprimierung ect holt man effektiv zwar mehr heraus, aber die 256 GiB/s sind nur ein theoretischer Wert.
Vorsicht bitte. Die ROPs sind NACH diesen 32GiB/s. Allein deshalb ist die effektive Bandbreite schon viel höher. Blending/Multisampling usw. findet alles auf dem Chip statt.
http://winfuture.de/news,41206.html
Na ja,bei Larrabee muss der Stromverbrauch allerdings deutlich unter 300 Watt
sinken, damit er für einen Spielkonsole in Frage kommt.
Hm.Wie geht das eigentlich?Können die Grafikchiphersteller so genau prognostizieren,was ihre Grafikchips im Jahre 2012 leisten werden bzw. sollten(Featureset)?
robbitop
2008-08-03, 21:07:02
Wer sagt dass das im PS3-Netzteil nicht der Fall ist? Das ist doch Unfug was du da erzählst.
Vorsicht bitte. Die ROPs sind NACH diesen 32GiB/s. Allein deshalb ist die effektive Bandbreite schon viel höher. Blending/Multisampling usw. findet alles auf dem Chip statt.
Die Samples müssen aber trotzdem über den Bus. Und auch die Eingangsdaten fürs Blending müssen es. Ja es sind effektiv mehr als 32 GiB/s aber es sind eben keine "echten" 256 GiB/s.
Nein die Samples müssen eben nicht über den Bus.
Welche "Eingabedaten" für's Blending? Es ist bei Xenon einfach völlig egal ob man Blending aktiviert hat oder nicht wenn man in den Framebuffer schreibt.
reunion
2008-08-03, 21:11:33
Die Samples müssen aber trotzdem über den Bus. Und auch die Eingangsdaten fürs Blending müssen es. Ja es sind effektiv mehr als 32 GiB/s aber es sind eben keine "echten" 256 GiB/s.
Wer sagt das ich vor den ROPs mehr als diese 32GB pro Sekunde pro Richtung benötige?
robbitop
2008-08-03, 21:16:56
Nein die Samples müssen eben nicht über den Bus.
Wo sollen Farb- und Z-Samples denn herkommen?
Wer sagt das ich vor den ROPs mehr als diese 32GB pro Sekunde pro Richtung benötige?
Der Crossbar (bzw Ringbus) jeder halbwegs aktuellen GPU (zwischen Hauptteil und Backend) ist deutlich schneller ausgelegt. Wird also einen Grund haben.
Wo sollen Farb- und Z-Samples denn herkommen?
Es wird ein Farbsample und ein Z-Sample+Steigung übertragen, egal ob MSAA oder Blending aktiviert ist.
Der Crossbar (bzw Ringbus) jeder halbwegs aktuellen GPU (zwischen Hauptteil und Backend) ist deutlich schneller ausgelegt. Wird also einen Grund haben.
Sagt wer? Rechne doch mal nach.
robbitop
2008-08-03, 21:31:38
Es wird ein Farbsample und ein Z-Sample+Steigung übertragen, egal ob MSAA oder Blending aktiviert ist.
Ist mir noch immer unklar. Erläuterst du das bitte mal? :)
Sagt wer? Rechne doch mal nach.
Laut ATI Folien hatte der Ringbus im R600 100 GiB/s in beide Richtungen zwischen 2 Ringstops. Ich gehe davon aus, dass die ROPs auch so angebunden werden.
Ist mir noch immer unklar. Erläuterst du das bitte mal? :)
Wozu brauchen die ROPs mehrere Farben wenn alle Samples immer den gleichen Farbwert haben bei Multisampling? Bei Z nimmt man den Mittelwert und die Steigung in x und y um das ganze zu komprimieren.
Wozu brauche ich bei Blending mehr als die Farbe? Alle anderen Parameter sind fest.
Laut ATI Folien hatte der Ringbus im R600 100 GiB/s in beide Richtungen zwischen 2 Ringstops. Ich gehe davon aus, dass die ROPs auch so angebunden werden.
Nein wurden sie natürlich nicht.
robbitop
2008-08-03, 22:47:12
Wozu brauchen die ROPs mehrere Farben wenn alle Samples immer den gleichen Farbwert haben bei Multisampling?
Haben sie ja nur, wenn keine Polygonkante im Pixel ist.
Bei Z nimmt man den Mittelwert und die Steigung in x und y um das ganze zu komprimieren.
Müßten nicht auch mehrere Z-Werte pro Pixel anfallen, sobald mehrere Polygonkanten in einem Pixel vorhanden sind?
Nein wurden sie natürlich nicht.
Wie breit sind sie denn angebunden?
Haben sie ja nur, wenn keine Polygonkante im Pixel ist.
Die ROPs schreiben ja nur die Subpixel für das Dreieck das gerade gerendert wird. Es wird bei Multisampling immer nur ein Farbwert pro Pixel berechnet, egal ob Kante oder nicht.
Müßten nicht auch mehrere Z-Werte pro Pixel anfallen, sobald mehrere Polygonkanten in einem Pixel vorhanden sind?
Siehe oben.
Wie breit sind sie denn angebunden?
Breit genug ;)
Es ist auf jeden Fall deutlich weniger.
robbitop
2008-08-04, 18:20:26
Bei 32 x Farbwerten-Werten (mit 4xMSAA) pro Takt, die Xenos schafft, 32 bit Präzision und 500 MHz Chiptakt, komme ich auf 64 GiB/s an Bandbreitenbedarf zwischen Renderteil und Backend allein für das Schreiben von Werten in den Framebuffer. Bei den maximal 64x Z Werten (mit 4xMSAA) pro Takt komme ich sogar auf 128 GiB/s.
Hinzu kommt, dass Xenos auch Lesezugriffe auf den Framebuffer braucht.
Mit guter Komprimierung kommt man vieleicht irgendwie mit den 32 GiB/s hin. Aber ein bisschen eng ist es trotzdem.
edit:
Ok ich verstehe nun, was Coda meinte. Die 32 GiB/s sind also doch ausreichend.
Spasstiger
2008-08-05, 00:49:46
Ihr seid immer noch bei GiB/s. :(
Die korrekte Einheit ist GB/s.
robbitop@work
2008-08-05, 08:51:29
Laut mir bekannten Normen steht kilo für "Tausend" und kibi für "Tausendvierundzwanzig".
http://de.wikipedia.org/wiki/Bin%C3%A4rpr%C3%A4fix
Unter Normierung expliziter Binärpräfixe schauen.
AnarchX
2008-08-05, 09:04:33
Nützt nur nichts wenn du den GB/s-Wert mit GiB/s bezeichnest, denn es sind 32GB/s (also 256-Bit *2*500MHz /8/1000) und keine 32GiB/s, denn das wären 256-Bit *2*500*10^6 /8/2^30 = 29,8GiB/s.
Und wie schon Spasstiger die ganze Zeit sagt sind Binärpräfixe in der Datenübertragung absolut ungebräuchlich und machen da ja auch nicht wirklich Sinn, da die dort vorhanden Frequenzen auch nicht binär gemessen werden.
Auf die Höhe getrieben hat das dann noch Leo, der in einigen Artikeln, diese sonderbaren GiB/s sogar für einige Karten ausgerechnet hat und dann aber mit GB/s bezeichnet hat...
robbitop@work
2008-08-05, 09:12:39
Nützt nur nichts wenn du den GB/s-Wert mit GiB/s bezeichnest, denn es sind 32GB/s (also 256-Bit *2*500MHz /8/1000) und keine GiB/s.
Ja Denkfehler meinerseits.
Und wie schon Spasstiger die ganze Zeit sagt sind Binärpräfixe in der Datenübertragung absolut ungebräuchlich und machen da ja auch nicht wirklich Sinn, da die dort vorhanden Frequenzen auch nicht binär gemessen werden.
Nur weil es ungebräuchlich ist, (was man über die Masse sagt, weißt du ja) werde ich sicher keine uneindeutig definierten SI-Indizes nutzen. Aber du hast Recht. Man sollte vor der Angabe sich im Klaren sein, was man da gerechnet hat. Mea culpa maxima. ;)
Jetzt aber genug Off-Topic gesabbelt. X-D
Bei Z nimmt man den Mittelwert und die Steigung in x und y um das ganze zu komprimieren.
das waere aber nicht perspective correct.
Spasstiger
2008-08-05, 12:13:12
werde ich sicher keine uneindeutig definierten SI-Indizes nutzen
SI-Präfixe sind eindeutig definiert und bei Taktraten und Bandbreiten auch angebracht (außer man steht auf krumme Zahlen).
Weiß eigentlich jemand,wie viel Edram kostet?Und würde dessen Einsatz in der nächsten Generation einen Sinn ergeben?
http://www.orthy.de/index.php?option=com_content&task=view&id=2521&Itemid=86
Hier werden die Kosten leider nicht aufgeführt.
robbitop@work
2008-08-05, 14:50:53
SI-Präfixe sind eindeutig definiert und bei Taktraten und Bandbreiten auch angebracht (außer man steht auf krumme Zahlen).
Kilo stand schon seit Jahrhunderten für 1000. Und genau deshalb wurden die von mir verlinkten SIs eingeführt. Es mag ja sein, dass es für dieses Anwendungsgebiet anders definiert ist. Das ist aber nur der Weg des geringsten Widerstandes, weil die Masse es so will. Damit ist der Präfix aber mehrfach definiert. EoD, wegen Offtopic.
Irgendwie kommt man hier vom eigentlichen Thema ab...
robbitop@work
2008-08-05, 14:57:17
Weiß eigentlich jemand,wie viel Edram kostet?Und würde dessen Einsatz in der nächsten Generation einen Sinn ergeben?
http://www.orthy.de/index.php?option=com_content&task=view&id=2521&Itemid=86
Hier werden die Kosten leider nicht aufgeführt.
Wäre für Desktop-GPUs derzeit nicht sonderlich empfehlenswert, da der Framebufferbedarf ein gänzlich anderer ist. 2560x1600 bei 8xMSAA und FP16 Framebuffer (color+z) hätte einen Bedarf von: 500 MiB
Wenn man endlich mal dafür sorgen würde, dass die Framebufferkompression auch Speicherplatz spart (dafür wird die Adressierung dann tricky) und man Z-First-Pass rendern würde, würde der Bedarf selbst bei diesem Worst-Case-Fall in mittelfristig realisierbare Regionen stoßen.
Nakai
2008-08-05, 15:06:04
Hier werden die Kosten leider nicht aufgeführt.
Liegt auch daran, dass ein EDRAM auf den Chip drauf sein sollte.
Bei der Xbox360 werden 10MB von 1T-EDRAM verwendet, also pro Bit einen Transistor.
Kommt bei 10MB auf etwa 80Millionen Transistoren. Und da spielt die Packdichte wieder eine große Rolle.
mfg Nakai
Spasstiger
2008-08-05, 15:15:45
Wenn man die Anforderungen von 720p int10 auf 1080p fp16 aufstockt, steigt der Speicherbedarf um etwa den Faktor 4,5. Mit 45 MB eDRAM würde man also hinkommen, das würde rund 360 Mio. Transistoren bedeuten. Bis zum Jahr 2011 scheint mir das relativ locker machbar.
Wäre für Desktop-GPUs derzeit nicht sonderlich empfehlenswert, da der Framebufferbedarf ein gänzlich anderer ist. 2560x1600 bei 8xMSAA und FP16 Framebuffer (color+z) hätte einen Bedarf von: 500 MiB
Wozu eine Auflösung von 2560*1600?Erschließt sich mir nicht wirklich.Im Wohnzimmer ist FullHd das,was maximal sinnvoll ist.Diese Auflösung(ungefähr) wird ja immer noch in den meisten Kinos verwendet(bei weit größeren Leinwänden).Alles darüber ist definitv überdimensioniert.
Wie berechnet man das überhaupt?Laut der Seite bräuchte man 32mb für 4aa bei FullHd.
http://www.orthy.de/index.php?option=com_content&task=view&id=1395&Itemid=85
Kann man das für 8aa einfach verdoppeln?
Das kommt auf die GPU an. Im Groben ja, im Detail kommt es aber auf die Struktur an wie die Framebuffer abgespeichert werden.
Durch die Bandbreitenkompression ergeben sich da Unterschiede.
robbitop
2008-08-05, 20:48:50
Man sollte bei Enthusiast GPUs schon auch die Worst-Case Fälle abdecken. 720p mit Int10 ist dafür jedenfalls zu wenig. Auf 128 - 256 MiB eDRAM sollte man dabei schon kommen.
Die Transistoren die dafür verbatzelt werden kann man dann natürlich nicht mehr in Ausführungseinheiten oder Steuerlogik stecken.
Zumal der Trend ja immer weiter zur Aritmetik geht.
Ok.Kann mir aber dennoch jemand verraten,wie das ungefähr berechnet bzw. geschätzt wird?Und wie teuer ist eigentlich der Arbeitsspeicher von Rambus?2-4 Gb von Rambus in einer Konsole der nächsten Generation vorstellbar oder zu teuer?
Pro Sample muss halt 64 Bit Farbe (Bei FP16 HDR) + 32 Bit Stencil/Z-Buffer vorgehalten werden. Dann kannst du rechnen.
http://uk.pc.ign.com/articles/854/854167p1.html
Interessanter Bericht.Verringern prozedurale Texturen nicht den Bedarf an Arbeitsspeicher(und kommt das nicht Spielkonsolen zugute)??
Informant
2008-08-11, 23:49:02
Intels Larrabee wird beim Xbox360 Nachfolger eine große Rolle spielen.
Sehr sehr abwegig, dafür ist das Ding noch zu unausgereift und Intel hat noch nicht genug Erfahrung mit dem ganzen Drumherum. Man muss ja auch die Software für den Grafikchip entsprechend Entwickeln.
Außerdem ists dann wieder so eine Sache mit der Abwärtskompatibilität und es wird eher wieder eine AMD GPU.
Die Konsolen werden erstmal an ordentlicher Arithmetikleistung zulegen, damit die Grafischen Blendereffekte voll reinhaun. Wenn es am Ende für durchgängig 8xAF und 2xAA ausreichen würde bei 720p/1080p wären viele schon zufrieden.
Sehr sehr abwegig, dafür ist das Ding noch zu unausgereift und Intel hat noch nicht genug Erfahrung mit dem ganzen Drumherum. Man muss ja auch die Software für den Grafikchip entsprechend Entwickeln.
Außerdem ists dann wieder so eine Sache mit der Abwärtskompatibilität und es wird eher wieder eine AMD GPU.
Die Konsolen werden erstmal an ordentlicher Arithmetikleistung zulegen, damit die Grafischen Blendereffekte voll reinhaun. Wenn es am Ende für durchgängig 8xAF und 2xAA ausreichen würde bei 720p/1080p wären viele schon zufrieden.
Warum soll der x360 nachfolger abwärtskompatibel sein??
Abraxus
2008-08-12, 02:38:11
Warum soll der x360 nachfolger abwärtskompatibel sein??
Bessere Frage, warum sollte er es mit Larabee nicht können?
Aber mal davon abgesehen das MS nicht ganz uninterssiert am Fusion Projekt war, halte ich das durchaus für reallistisch. Der Preis wirds dann warscheinlich entscheiden. Am liebsten würde MS ja selber entwickeln und fertigen, weil das so schön billig ist.
Eben das ist der Grund warum es sehr unwahrscheinlich ist, dass sie Larrabee einbauen. Intel wird niemals das Design rausrücken, und Microsoft wird nicht nochmal den Fehler machen und Fremdproduktion einkaufen.
Mal ganz abgesehen davon, dass Intel wohl gar nicht in der Lage ist das Design überhaupt auf TSMC auszulegen, weil die ihre eigenen Libraries für alles verwenden.
Wenn Larrabee als Grafikarte für den PC kommt , warum dann nicht auch
in einer ähnlichen Technologie für Konsolen??
Neon3D
2008-08-12, 08:59:08
Sagt leider überhaupt nichts über die Rechenleistung aus.
Doppeltes lol. :D
Erstens die Menge und zweitens - GDDR5 wird sich erstmal in 2008/2009 richtig durchsetzen. Für 2011 würde ich höchstens GDDR6 erwarten.
Das bezweifle ich ganz stark.
Ebenfalls doppeltes lol.
Achja, was soll die Konsole dann kosten? 2000€? :D
da hat dargo vollkommen recht.
wer soll das bezahlen? ps3 ist doch jetzt schon viel zu teuer und man speckt ab wo es nur geht um kosten bzw. verluste zu senken.
ShadowXX
2008-08-12, 09:18:05
Wenn Larrabee als Grafikarte für den PC kommt , warum dann nicht auch
in einer ähnlichen Technologie für Konsolen??
Coda hat es doch schon gesagt: Intel wir die Technologie von Larrabee nicht an MS verkaufen....und nach der XBox1 wo nV MS mehr als nur über den Tisch gezogen hat (die haben Sie über eine ganze Möbellager an Tischen gezogen, MS muss selbst für die Emulation der XBox1 auf der XBox 360 Lizenzgebühren an nV zahlen) geht MS nur noch auf Nummer sicher und nimmt nur noch Design die Sie direkt kaufen können und dann "selber" Herstellen.
Xenon und Xenos waren beides Auftragsarbeiten (das restliche Design ebenfalls) und gehören nun MS, sowas wird Intel mit Larrabee nicht machen, wenn Sie es nicht mal mit was simpleren wie einer "normalen" CPU ala Atom gemacht haben. IBM hatte da weniger Kopfschmerzen und ATI scheinbar auch.
gnomi
2008-08-12, 10:01:00
Ich denke die nächsten Konsolen werden alle ihren Vorgängern technisch sehr ähnlich sein und vermutlich auch nicht mehr die riesen Leistungsexplosionen mitbringen.
ohne leistungsexplosion wird aber nie etwas aus full hd gaming
Exxtreme
2008-08-12, 10:33:02
ohne leistungsexplosion wird aber nie etwas aus full hd gaming
Die Zielgruppe sieht das eh' nicht ob Full HD oder nicht.
es gibt nicht DIE zielgruppe. auch konsolenuser bestehen nicht nur aus casual gamern.
aber klar grafik ist nichts das wichtigste. aber ich wette sie werden wieder mit hd gaming werben
Deinorius
2008-08-12, 11:42:41
Warum sollte der nächste Leistungssprung überhaupt so gewaltig sein, wie der jetzige?
Imho gerade wenn ich mir ansehe, welche Leistung man derzeit für wenig Geld bekommt, stelle ich mir die Frage, ob sich die nächste Konsolengeneration da nicht sogar leichter tut. Bei der PS3 war allein schon Blu-Ray ein großer Kostenfaktor, der sich bis zur nächsten Generation wieder relativiert, da es sich ja verbreitet und der Sprung von SD auf HD war auch nicht ohne. RAM war da auch teurer.
Und wenn ich mir die jetzigen GPUs ansehe, die eine bessere Effizienz hinsichtlich höhere Auflösungen und AF/AA zeigen als frühere, dann bestärkt mich das in meinem Denken.
Wäre es nicht so oder so günstiger auf bestehende Architekturen zu setzen, da dann große Entwicklungskosten wegfallen würden? Allein schon wegen der Abwärtskompatibilität. Ich weiß, dass die Abwärtskompatibilität bei anderen Architekturen auch nicht ausgeschlossen werden muss. Aber Sony und MS sind ja auch nicht gerade begeistert extra Aufwand für die Gewährleistung dieser sicherzustellen. Und der Aufwand dafür wird sicher nicht sinken.
Was ich mich aber schon immer gefragt habe: Was wurde aus der Art, wie die Parhelia-GPU AA gerendert hat? Das war doch angeblich sehr effizient. Warum wurde das nie lizenziert? Verlangt Matrox zuviel dafür? Wäre doch gerade für Konsolen interessant.
dargo
2008-08-12, 11:49:37
Bei der PS3 war allein schon Blu-Ray ein großer Kostenfaktor, der sich bis zur nächsten Generation wieder relativiert, da es sich ja verbreitet und der Sprung von SD auf HD war auch nicht ohne. RAM war da auch teurer.
Der Rechenaufwand von Pal auf HD-Ready ist in etwa der selbe wie von HD-Ready auf Full-HD.
Exxtreme
2008-08-12, 11:51:42
Was ich mich aber schon immer gefragt habe: Was wurde aus der Art, wie die Parhelia-GPU AA gerendert hat? Das war doch angeblich sehr effizient. Warum wurde das nie lizenziert? Verlangt Matrox zuviel dafür? Wäre doch gerade für Konsolen interessant.
Es hatte Schwächen. Z.B. wurden Polygon-Schnittkanten nicht geglättet weil der AA-Mechanismus sie gar nicht erkennen konnte. Auch wurden Schatten nicht geglättet und ich bin mir recht sicher, daß sowas wie Transparenz-AA auch nicht möglich ist.
Für Konsolen sollte das Matrox-AA trotzdem völlig ausreichend sein.
Coda hat es doch schon gesagt: Intel wir die Technologie von Larrabee nicht an MS verkaufen....und nach der XBox1 wo nV MS mehr als nur über den Tisch gezogen hat (die haben Sie über eine ganze Möbellager an Tischen gezogen, MS muss selbst für die Emulation der XBox1 auf der XBox 360 Lizenzgebühren an nV zahlen) geht MS nur noch auf Nummer sicher und nimmt nur noch Design die Sie direkt kaufen können und dann "selber" Herstellen.
Xenon und Xenos waren beides Auftragsarbeiten (das restliche Design ebenfalls) und gehören nun MS, sowas wird Intel mit Larrabee nicht machen, wenn Sie es nicht mal mit was simpleren wie einer "normalen" CPU ala Atom gemacht haben. IBM hatte da weniger Kopfschmerzen und ATI scheinbar auch.
Branchenkenner sagen aber was anderes. Hier im Forum hatte jemand mal ein Link gepostet über ein Interview von einem Experte der PC Branche im Bereich Grafikkarten etc. arbeitet, ein netter alter Herr im schwarzen Sako ich weiß nicht mehr wie der hieß der sagte das Larrabee der Kandidat für die nächste Konsolengeneration ist , weil Cell sich als zu unkonfortabel für die Spieleentwicklung herausgestellt hat und IBM nichts vergleichbares zu Larabee
anzubieten hat.
Spieleentwickler mögen Larrabee:
http://www.gamespot.com/hardware/blogs/hardware-insider/909185655/26524729/tim-sweeney-likes-larrabee.html
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8760&Itemid=1
"The latest talk that we received from trusted sources is that Intel is considering the possibility of trying to reach out to market a variation of Larrabee’s architecture and design that would be targeted at the next generation of gaming consoles, and specifically at the one already known in design discussions as the 720 numbered unit.
The time frame for release of Larrabee does fit the timeline that a new console might be on the drawing board, but while these whispers have started, we just don’t think that Intel will want to disrupt what they are doing to produce a specialized version of Larrabee targeted at consoles."
ShadowXX
2008-08-12, 14:04:47
Branchenkenner sagen aber was anderes. Hier im Forum hatte jemand mal ein Link gepostet über ein Interview von einem Experte der PC Branche im Bereich Grafikkarten etc. arbeitet, ein netter alter Herr im schwarzen Sako ich weiß nicht mehr wie der hieß der sagte das Larrabee der Kandidat für die nächste Konsolengeneration ist , weil Cell sich als zu unkonfortabel für die Spieleentwicklung herausgestellt hat und IBM nichts vergleichbares zu Larabee
anzubieten hat.
Spieleentwickler mögen Larrabee:
http://www.gamespot.com/hardware/blogs/hardware-insider/909185655/26524729/tim-sweeney-likes-larrabee.html
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8760&Itemid=1
"The latest talk that we received from trusted sources is that Intel is considering the possibility of trying to reach out to market a variation of Larrabee’s architecture and design that would be targeted at the next generation of gaming consoles, and specifically at the one already known in design discussions as the 720 numbered unit.
The time frame for release of Larrabee does fit the timeline that a new console might be on the drawing board, but while these whispers have started, we just don’t think that Intel will want to disrupt what they are doing to produce a specialized version of Larrabee targeted at consoles."
Vielleicht hat Intel ja wirklich sowas vor, nur MS wird definitiv sich auf keinen Fremdhersteller mehr einlassen, vielleicht kauft Sony dann ja Fremd ein (und nein, Intel wird die Larrabee-IP, auch nicht in abgewandelter Form, nicht an MS verkaufen).
Das einzige was MS und Sony nun als vorteil haben, ist das Sie noch einen möglichen Vertragspartner mehr haben (nV, AMD/ATI, Intel und VR) und dadurch die Preise eventuell drücken können (dafür müsste Sony aber mal früher aus den Hufen kommen als letztes mal wo Sie quasi ein Last-Minute-Geschäft mit nV für die GPU gemacht haben).
Larrabee ist als Technik wirklich sehr interessant für Konsolen. Das ist unbestreitbar.
Aber ich glaube halt nicht, dass sie sich mit der Chipfertigung einig werden können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.