Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
Mr.Magic
2013-01-23, 22:53:55
Crytek. Das Ergebnis der Screenspace Methoden ist imo aber eher "naja".
Naja ist viel zu positiv ausgedrückt. Bis auf Waffe und HUD bekommen beide Augen ein identisches Bild (aka 2D). Ist also eine Mogelpackung.
BaggiBox
2013-01-23, 22:54:09
naja... finde das samaritan besser aussieht.
Das weiß ich auch. :biggrin:
Hast mich nicht verstanden.
Wir haben bis jetzt StarWars1313 auf der UE3 gesehen.
Samaritan auf UE 3.5 toppt das natürlich.
Und die Unreal Engine 4 mit ein paar Effekten.
Samaritan war überhaupt nicht die Spitze des Eisberges
Das wird noch besser. Warte ab bis die ersten richtigen AAA UE4 Games von Epic und co. kommen.
Tesseract
2013-01-23, 23:02:37
Hö? HDMI hat doch locker genug Bandbreite für max. 1080p mit 3D oder?
kommt auf die framerate an, bei allem unter 1.4 wird das aber sehr eng wenn man 60Hz haben will. ich bin mir auch gerade nicht sicher wie flexibel das protokoll überhaupt ist bei exotischen modi. mit den neueren revisionen könnte das durchaus funktionieren, dann müssen aber auch beide entpunkte mitspielen.
Knuddelbearli
2013-01-23, 23:16:52
1080p mit 3D ( 60Hz ) geht schonmal nicht
Naja ist viel zu positiv ausgedrückt. Bis auf Waffe und HUD bekommen beide Augen ein identisches Bild (aka 2D). Ist also eine Mogelpackung.
Das ist schlicht falsch
N0Thing
2013-01-23, 23:41:24
naja... finde das samaritan besser aussieht.
Das eine ist ein Spiel im Alpha-Status, das andere ne fertige Techdemo, die als Werbung für eine Engine benutzt wird...
Avalox
2013-01-24, 00:29:12
Na mal eine etwas andere Spekulation.
Microsoft wirft alsbald das permanent defizitäre Xbox Geschäft komplett hin.
Jedenfalls wenn es nach Forbes geht.
http://www.forbes.com/sites/adamhartung/2013/01/20/sell-microsoft-now-game-over-ballmer-loses/
Tesseract
2013-01-24, 00:38:49
ich frage mich wie tief MS noch sinken muss bis sie sich endlich dazu durchringen können ballmer endlich rauszuschmeißen.
dargo
2013-01-24, 00:41:33
Na mal eine etwas andere Spekulation.
Microsoft wirft alsbald das permanent defizitäre Xbox Geschäft komplett hin.
Jedenfalls wenn es nach Forbes geht.
http://www.forbes.com/sites/adamhartung/2013/01/20/sell-microsoft-now-game-over-ballmer-loses/
Habe ich das richtig verstanden? Die machen 350-750$ Millionen Miese mit der xBox / Kinect Entertainment-Sparte im Quartal? :eek: Welches Unternehmen kann das auf Dauer stemmen? :|
Ok... Online-Sparte.
Mr.Magic
2013-01-24, 00:43:30
Das ist schlicht falsch
Ach ja? Mach mal beim Spiel die Augen abwechselnd zu. Auch mit beiden Augen hat die eigentliche Szene keine echte 3D Tiefenwirkung.
Spielt für mich aber keine Rolle. Crysis 2 taugt als Spiel schon nicht viel, da kommt es auf minderwertige Technik auch nicht an. Lieber nochmal Teil 1 in echtem 3D.
Tesseract
2013-01-24, 00:44:19
Habe ich das richtig verstanden?
nein. xbox ist ein nullsummenspiel. den verlust macht die online-division. darunter fällt wohl bing und so zeug, also das was microsoft von google und co. kopiert ohne überhaupt zu wissen warum sie das tun.
TheCounter
2013-01-24, 00:48:35
Habe ich das richtig verstanden?
Nein. Die Xbox Sparte alleine macht schon längere Zeit Gewinn.
Avalox
2013-01-24, 00:52:40
Nein. Die Xbox Sparte alleine macht schon längere Zeit Gewinn.
Laut Forbes nicht. Dort ist es eine Null und damit schlecht, weil Geldverbrennung.
Ich denke mal, dass die "Gewinne" Geschichte der ja tatsächlich alle Nase mal zu lesen ist nur irgend einen Teilaspekt betrifft, der allerdings nur scheinbar recht unredlich allein betrachtet werden kann.
Aber keine Panik, solange Bing noch erreicht wird, wird es wohl auch die Microsoft XBox noch geben.
dargo
2013-01-24, 00:54:09
Ich wollte gerade sagen... ich verstehe das auch so, dass die XBox nichts gebracht hat.
Aber keine Panik, solange Bing noch erreicht wird, wird es wohl auch die Microsoft XBox noch geben.
Bis jetzt wußte ich noch nicht mal was Bing ist. X-D
schreiber
2013-01-24, 01:28:00
ich frage mich wie tief MS noch sinken muss bis sie sich endlich dazu durchringen können ballmer endlich rauszuschmeißen.
jup, gibt es überhaupt noch einen Trend, den m$ in den letzten 10 Jahren nicht verschlafen hat?! ich hab das Gefühl, sie hecheln überall hinterher.
tobor
2013-01-24, 09:07:32
Laut Forbes nicht.
Nicht? Offenbar gehen bezüglich der Xbox auch bei Forbes die Meinungen auseinander:
http://www.forbes.com/sites/davidewalt/2012/06/04/microsoft-xbox-is-winning-the-living-room-war-heres-why/
tobor
2013-01-24, 09:11:25
jup, gibt es überhaupt noch einen Trend, den m$ in den letzten 10 Jahren nicht verschlafen hat?!
Cloud.
Iruwen
2013-01-24, 10:00:26
Hö? HDMI hat doch locker genug Bandbreite für max. 1080p mit 3D oder?
Und von den 1920x1080 bleiben mit Polarisationstechnik prinzipbedingt 1920x540 übrig.
Und von den 1920x1080 bleiben mit Polarisationstechnik prinzipbedingt 1920x540 übrig.
Das kommt drauf an. Bei meinem Fernseher kann ich zB auswählen, wie die Quelldaten vorliegen, also ob nebeneinander oder übereinander. Im Fall nebeneinander (so wie ich die Tage Avater geschaut hab) sind's dann 960*1080.
Edit: Ich nehm alles zurück und behaupte das Gegenteil. Polarisation geht wohl doch nur Zeilenweise. Dann hab ich also am WE nur 960*540 geschaut :O
THEaaron
2013-01-24, 10:38:35
Wenn man sich mal anguckt was für ein Sprung Microsoft von der alten Xbox mit der Xbox360 vollzogen hat ist es ein riesen Gewinn. Hier spreche ich nicht von Kapitalgewinn sondern von einem riesigen Markt mit ca. 75mio Kunden den in der letzten Generation die Playstation 2 für sich alleine beansprucht hat.
Wenn sie Xbox-Live weiterhin gut begleiten werden die nächsten Generationen deutlicher Microsoft zugunsten ablaufen imho.
fizzo
2013-01-24, 11:05:25
Angeblich technische Daten der PS4 aufgetaucht
24.01.13 - Kotaku hat technische Daten der PS4 veröffentlicht, die aus offiziellen Orbis - so der Codename der PS4 - Unterlagen von Sony stammen sollen. Sony hat keine der Angaben bestätigt und die Meldung nicht kommentiert:
Hauptspeicher: 8GB
Grafikspeicher: 2.2 GB
CPU: 4x Dual-Core AMD64 "Bulldozer" (insgesamt 8x Kerne)
GPU: AMD R10xx
Ports: 4x USB 3.0, 2x Ethernet
Drive: Blu-Ray
Festplatte: 160GB
Audio Output: HDMI & Optical, 2.0, 5.1 & 7.1 Kanäle
Diese Daten sollen auf PS4-Entwicklungs-Kits basieren, die sich im Januar 2013 in den Händen von Spiele-Entwicklern befanden. Die Konsole soll einen neuen Conrtoller besitzen. Er hat auf der Oberseite die vier typischen PlayStation-Tasten, sowie zwei Analog-Sticks.
Schultertasten sind ebenfalls vorhanden, außerdem eine Rumble-Funktion und verbesserte Bewegungssteuerung. Neu ist hingegen ein kapazitives Touch-Pad, so wie es an der Rückseite der Vita zu finden ist. Das Touch-Pad soll Multi-Touch-fähig sein, d.h. es beherrscht Mehrfingergestenerkennung.
Der Controller hat eine neue "Share" Taste, deren genaue Funktion unklar ist. Möglicherweise hat er etwas mit dem neuen User Kontensystem zu tun.
Laut Kotaku soll es auf der PS4 möglich sein, dass sich mehrere Nutzer mit ihren Konten auf nur einer einzigen Konsole anmelden. So könnten alle Spieler Trophäen freischalten, wenn sie z.B. Co-Op spielen, die dann auf den Nutzerkonten gutgeschrieben werden.
www.gamefront.de
pixelguy
2013-01-24, 11:16:57
Klingt für eine finale Konsole nicht sehr glaubhaft...
Deinorius
2013-01-24, 11:18:40
Und von den 1920x1080 bleiben mit Polarisationstechnik prinzipbedingt 1920x540 übrig.
960x1080 wäre die deutlich bessere und sinnvollere Variante, aber wenn es zeilenweise abläuft... :\
Laut Kotaku soll es auf der PS4 möglich sein, dass sich mehrere Nutzer mit ihren Konten auf nur einer einzigen Konsole anmelden. So könnten alle Spieler Trophäen freischalten, wenn sie z.B. Co-Op spielen, die dann auf den Nutzerkonten gutgeschrieben werden.
www.gamefront.de (http://www.gamefront.de)
Verstehe ich das richtig, dass es darum geht, dass man zur selben Zeit angemeldet sein kann? Denn sonst wäre es nichts neues.
Naja ist viel zu positiv ausgedrückt. Bis auf Waffe und HUD bekommen beide Augen ein identisches Bild (aka 2D). Ist also eine Mogelpackung.
Identisches Bild ist falsch. Es handelt sich Screenspace Reprojection. Auf einer GDC gabs mal irgendwann einen Vortrag dazu.
Nightspider
2013-01-24, 12:11:53
Und von den 1920x1080 bleiben mit Polarisationstechnik prinzipbedingt 1920x540 übrig.
Bei Shutter Technik nicht.
Zumal in 2 Jahren der Markt eh von 4K Fernsehern überschwemmt wird, wo man mit 3D keine Nachteile in der Auflösung mehr hat.
Und dann ist die PS4 / 720 auch gerade mal ein Jahr auf dem Markt.
mboeller
2013-01-24, 13:34:26
Ach ja? Mach mal beim Spiel die Augen abwechselnd zu. Auch mit beiden Augen hat die eigentliche Szene keine echte 3D Tiefenwirkung.
Spielt für mich aber keine Rolle. Crysis 2 taugt als Spiel schon nicht viel, da kommt es auf minderwertige Technik auch nicht an. Lieber nochmal Teil 1 in echtem 3D.
[ ] du weißt wo Coda arbeitet ;)
robbitop
2013-01-24, 13:43:00
Bei Shutter Technik nicht.
Zumal in 2 Jahren der Markt eh von 4K Fernsehern überschwemmt wird, wo man mit 3D keine Nachteile in der Auflösung mehr hat.
Und dann ist die PS4 / 720 auch gerade mal ein Jahr auf dem Markt.
Und in ein paar Jahren danach kannst du den BD Nachfolger mit 4K Medien kaufen und hast wieder den gleichen Nachteil. (mal davon abgesehen, dass 3D Technik mit Brille -unabhängig vom nicht gerade gutem 3D Kontent- noch ziemliche Nachteile hat)
YfOrU
2013-01-24, 13:43:06
B
Zumal in 2 Jahren der Markt eh von 4K Fernsehern überschwemmt wird, wo man mit 3D keine Nachteile in der Auflösung mehr hat.
Woher und wie sollen die Inhalte bei 4K auf den TV kommen ? Es mangelt schon heute an Quellmaterial, Aufnahmetechnik und Bandbreite für Full HD. Für den Massenmarkt ist 4K auf absehbare Zeit eine Ente. Selbst bei Sky ist ein großer Teil der Inhalte von Full HD immer noch ziemlich weit weg und das obwohl der Spaß alles andere als günstig ist. Da braucht man doch nicht ernsthaft anfangen über 4K als allgemein gültigen Standard zu reden.
Nightspider
2013-01-24, 14:02:15
Und in ein paar Jahren danach kannst du den BD Nachfolger mit 4K Medien kaufen und hast wieder den gleichen Nachteil. (mal davon abgesehen, dass 3D Technik mit Brille -unabhängig vom nicht gerade gutem 3D Kontent- noch ziemliche Nachteile hat)
Hier geht es um Games. Die meisten Leute würden nichtmal einen Unterschied zwischen 4K und FHD sehen.
Allerdings werden eben gerade die neuen 4K Fernseher wegen der problemfreien FHD Wiedergabe in 3D beworben, bei Verwendung passiver Brillen.
Woher und wie sollen die Inhalte bei 4K auf den TV kommen ? Es mangelt schon heute an Quellmaterial, Aufnahmetechnik und Bandbreite für Full HD. Für den Massenmarkt ist 4K auf absehbare Zeit eine Ente. Selbst bei Sky ist ein großer Teil der Inhalte von Full HD immer noch ziemlich weit weg und das obwohl der Spaß alles andere als günstig ist. Da braucht man doch nicht ernsthaft anfangen über 4K als allgemein gültigen Standard zu reden.
Wer redet denn von 4K Material? Die Rede war von FullHD Material in 3D ohne Auflösungsverluste bei Polarisations-3D-Fernsehern, bei denen sich im 3D Modus die Auflösung halbiert.
Bei 4K Fernsehern würde das niemanden mehr interessieren da der Fernseher FullHD in 3D darstellen kann ohne das die FHD Auflösung halbiert wird.
YfOrU
2013-01-24, 14:10:24
Wer redet denn von 4K Material? Die Rede war von FullHD Material in 3D ohne Auflösungsverluste bei Polarisations-3D-Fernsehern, bei denen sich im 3D Modus die Auflösung halbiert.
Bei 4K Fernsehern würde das niemanden mehr interessieren da der Fernseher FullHD in 3D darstellen kann ohne das die FHD Auflösung halbiert wird.
Ist mir schon bewusst das dein Fokus darauf liegt aber als alleiniges Verkaufsargument um einen FHD (3D) Fernseher zu ersetzten zieht das im Massenmarkt kaum. Auch ein deutlich höherer Preis gegenüber herkömmlichen FHD Modellen ist dem durchschnittlichen Verbraucher so kaum ausreichend zu begründen. Durch den massiven Preisverfall bei LCD FHD TVs wird es so oder so jede neue Technik extrem schwer haben einen signifikanten Marktanteil zu erreichen.
robbitop
2013-01-24, 14:16:37
Mit den Geräten wird schon auch noch der Kontent kommen. Ich kann mir nicht vorstellen, dass Filme ab - sagen wir mal 2010 - nicht entweder in 4K gedreht oder konvertierbar sind.
In 2015 interessiert sich sowieso kaum jemand dafür, dass ein 4K Film von vor 2010 nicht viel besser aussieht als die FullHD Version. Ist doch bei vielen BRs genauso. Viele BRs von Filmen aus den 80ern und 90ern sehen nicht besser aus als die DVD Version. Oder nur marginal (professsionell upgescalt).
Es braucht neue Kaufargumente. 4K wird dort sicher als eines genommen. Dann führt man neuere Filme auf großen Diagonalen vor (siehe IFA 2012) und begeistert die Massen. Dann ist 4K in aller Munde und der o.g. nicht vorhandene Vorteil alter Filme fällt unter den Tisch.
Es ist doch sowieso immer das gleiche Spiel.
YfOrU
2013-01-24, 14:46:40
Mit den Geräten wird schon auch noch der Kontent kommen. Ich kann mir nicht vorstellen, dass Filme ab - sagen wir mal 2010 - nicht entweder in 4K gedreht oder konvertierbar sind.
In 2015 interessiert sich sowieso kaum jemand dafür, dass ein 4K Film von vor 2010 nicht viel besser aussieht als die FullHD Version. Ist doch bei vielen BRs genauso. Viele BRs von Filmen aus den 80ern und 90ern sehen nicht besser aus als die DVD Version. Oder nur marginal (professsionell upgescalt).
Hier wird allerdings impliziert das die Verbreitung primär über optische Datenträger läuft und das ist insgesamt eher ein Auslaufmodell. Nachteilig wirkt sich auch aus das für 4K wieder neue Abspielgeräte und Receiver nötig sind.
Nehmen wir andere Varianten wie Sat, Kabel und Internet fehlt heute bereits die Bandbreite für ein komplettes und überall verfügbares Full HD Angebot.
Der Netzausbau hängt sehr deutlich hinterher und es gibt unzählige Baustellen an denen es brennt.
Es braucht neue Kaufargumente. 4K wird dort sicher als eines genommen. Dann führt man neuere Filme auf großen Diagonalen vor (siehe IFA 2012) und begeistert die Massen. Dann ist 4K in aller Munde und der o.g. nicht vorhandene Vorteil alter Filme fällt unter den Tisch.
Es ist doch sowieso immer das gleiche Spiel.
Natürlich. Ohne die nötigen Rahmenbedingungen bleibt eine Marktdurchdringung aber meist Wunschvorstellung der Hersteller.
Deinorius
2013-01-24, 14:55:31
Hier wird allerdings impliziert das die Verbreitung primär über optische Datenträger läuft und das ist insgesamt eher ein Auslaufmodell. Nachteilig wirkt sich auch aus das für 4K wieder neue Abspielgeräte und Receiver nötig sind.
Nehmen wir andere Varianten wie Sat, Kabel und Internet fehlt heute bereits die Bandbreite für ein komplettes und überall verfügbares Full HD Angebot.
Der Netzausbau hängt sehr deutlich hinterher und es gibt unzählige Baustellen an denen es brennt.
Wenn du schon schreibst, dass es an Bandbreite fehlt, wieso schreibst du dann auch, dass optische Datenträger ein Auslaufmodell sind? :|
Gerade für 4K Material bleibt ja nix anderes übrig, wenn man selbst Mainstreamkunden nicht zumuten will, ein paar Dutzend von GiB Daten runterladen zu dürfen.
Nightspider
2013-01-24, 15:08:23
Vom Massenmarkt ist auch keine Rede.
Ich sag nur das es mit 4K Geräten mit 3D dann gar kein Problem mehr gibt hinsichtlich der Auflösungshalbierung.
Viele Leute haben auch so schon kein Problem mit der Shutter-Technik.
4K wird das Problem dann nur ganz beseitigen, allmählich und die neuen Konsolen sind ja noch lang nicht draußen.
Mir geht es nur darum das immer wieder viele Argumente gegen 3D gefunden werden die gar nicht so groß sind.
Die Anzahl der 3D Nutzer wird größer, unabhängig davon ob es hier immer wieder neue Leute gibt, die über irgend etwas meckern.
YfOrU
2013-01-24, 15:08:50
Wenn du schon schreibst, dass es an Bandbreite fehlt, wieso schreibst du dann auch, dass optische Datenträger ein Auslaufmodell sind? :|
Es werden heute noch weit mehr DVDs als BDs verkauft. Das spricht nicht gerade für einen durchschlagenden Erfolg einer nötigen Nachfolgetechnologie auf optischer Basis. Geringere Absatzmengen bedeuten auch höhere Kosten. Die DVD ist ein übergreifendes Medium welches auch durch den PC zu einem enormen Erfolg wurde. Bei BD ist das bereits nicht mehr gegeben.
Gerade für 4K Material bleibt ja nix anderes übrig, wenn man selbst Mainstreamkunden nicht zumuten will, ein paar Dutzend von GiB Daten runterladen zu dürfen.
Im Mainstream läuft es praktisch immer auf den kleinsten gemeinsamen Nenner hinaus und das wird wohl auf recht lange Sicht Full HD bleiben. Das ist zumindest mittelfristig über digitale Vertriebswege realisierbar.
robbitop
2013-01-24, 15:13:35
Hier wird allerdings impliziert das die Verbreitung primär über optische Datenträger läuft und das ist insgesamt eher ein Auslaufmodell.
Das mag sein. Dafür sind optische Datenträger sehr günstig und sind unabhängig vom Internetausbau der Haushalte. Außerdem haben viele Menschen den irrationalen Trieb, ihre Medien auch als körperliche Masse besitzen zu wollen. (kann ich selbst nicht nachvollziehen - ist aber ganz häufig einfach so).
Die Internetverbindung ist noch nichteinmal jetzt in allen Industrieländern der Welt soweit, dass -sagen wir- 95% der Haushalte problemlos Bluray gestreamt bekommen könnten. Zum Vergleich: WLAN nach dem N Standard ist da schon ziemlich an der Kotzgrenze.
Mit besseren Codecs und verringerter Qualität wird es besser. Auch sollte mehr bei der Internetverbindung eines Haushaltes gehen, als gerade so einen Film sehen zu können.
Ich schätze für diesen Zweck benötigt man 50 MBit/s.
Bis 95 % aller Haushalte der relevanten Industrieländer dort sind, dauert es noch eine Weile. Selbst in Deutschland sind es nicht die Mehrheit, die diese Anschlüsse haben. (weil es für den derzeitigen Hausgebrauch ganz einfach nicht nötig ist)
Es wird also eine Weile bei optischen Datenträgern bleiben.
4K wird den Trafficbedarf vervierfachen.
Nachteilig wirkt sich auch aus das für 4K wieder neue Abspielgeräte und Receiver nötig sind.
Das war doch schon immer so. Das bremst die Verbreitung - stoppt sie aber nicht. Sonst wären wir heute wohl noch bei VHS. :D
Nehmen wir andere Varianten wie Sat, Kabel und Internet fehlt heute bereits die Bandbreite für ein komplettes und überall verfügbares Full HD Angebot.
Der Netzausbau hängt sehr deutlich hinterher und es gibt unzählige Baustellen an denen es brennt.
4K im TV? Das dauert bestimmt locker 10 Jahre. Wofür auch - bei dem Kontent?
4K ist primär wie die BD für Kinofilme zu Hause.
Als BD 2005 auf den Markt kam, war in den meisten deutschen Haushalten noch nicht mal an HD zu denken. Es gab ganz wenige HDReady Sender - und das nichtmal mit vollständigem HD Programm.
TV ist nun wirklich kein Maßstab.
Natürlich. Ohne die nötigen Rahmenbedingungen bleibt eine Marktdurchdringung aber meist Wunschvorstellung der Hersteller.
Es war schon immer so und es gibt keinen Grund, warum es nicht immer wieder so sein wird.
Alle 5...10 Jahre ein neues Medium. BD kam 2005. Wir haben 2013. Es wird in den nächsten Jahren kommen... da bin ich mir ganz sicher.
Es werden heute noch weit mehr DVDs als BDs verkauft. Das spricht nicht gerade für einen durchschlagenden Erfolg einer nötigen Nachfolgetechnologie auf optischer Basis. Geringere Absatzmengen bedeuten auch höhere Kosten.
Und zu DVD Zeiten wurde VHS mehr gekauft. Und davor dann das Vorgängerformat und davor Bücher... ;)
Das ist immer so...
Skysnake
2013-01-24, 15:53:11
Es werden heute noch weit mehr DVDs als BDs verkauft. Das spricht nicht gerade für einen durchschlagenden Erfolg einer nötigen Nachfolgetechnologie auf optischer Basis. Geringere Absatzmengen bedeuten auch höhere Kosten. Die DVD ist ein übergreifendes Medium welches auch durch den PC zu einem enormen Erfolg wurde. Bei BD ist das bereits nicht mehr gegeben.
BD ist aber dabei die DVD zu verdrängen. Die Absatzzahlen der BD steigen kontinuierlich, und die der DVD sacken immer weiter ab. In 2-3 Jahren wird man wohl erstmals mehr BDs als DVDs verkaufen, und dann gehts relativ schnell stark runter, bis ein kleiner Sockel bleibt, der sich dann auch recht lange noch hält.
Im Mainstream läuft es praktisch immer auf den kleinsten gemeinsamen Nenner hinaus und das wird wohl auf recht lange Sicht Full HD bleiben. Das ist zumindest mittelfristig über digitale Vertriebswege realisierbar.
Und deswegen werden wir FullHD 3D noch SEHR lange haben, und genau da sind 4K Fernseher mit Polfiltertechnik einfach geil. Man hat die lichten billigen passiven Brillen praktisch ohne Positionsabhängigkeit, und muss gleichzeitig nicht mit der Auflösungshalbierung leben. Das ist ziemlich praktisch.
Ansonsten kann ich dir den Link hier noch empfelen ;)
http://de.wikipedia.org/wiki/Blu-ray_Disc
Schau dir mal die VHS an ;)
Wo ich allerdings wirklich das kotzen bekomme ist, wenn ich mir die Zahlen anschaue, und an das Geheule der Kontentindustrie denke, wie sie doch Raubmordkopiert und Gebrauchtmarktvergewaltigt werden....
Wenn man sich aber mal anschaut, das 1999 nicht mal 42 Mio Medien verkauft wurden, 2011 aber über 118 Mio! Medien, dann bekommt man das kotzen. :motz::down::ubash3::uattack4:
YfOrU
2013-01-24, 15:53:33
Das mag sein. Dafür sind optische Datenträger sehr günstig und sind unabhängig vom Internetausbau der Haushalte. Außerdem haben viele Menschen den irrationalen Trieb, ihre Medien auch als körperliche Masse besitzen zu wollen. (kann ich selbst nicht nachvollziehen - ist aber ganz häufig einfach so).
Hab es oben noch editiert. Optische Datenträger sind nicht zwangsläufig sehr günstig. CD und DVD sind als Sonderfälle zu betrachten da diese Formate auch im EDV und Audio Bereich zum absoluten Standard wurden. Das ist schon bei BD so nicht mehr gegeben.
Die Internetverbindung ist noch nichteinmal jetzt in allen Industrieländern der Welt soweit, dass -sagen wir- 95% der Haushalte problemlos Bluray gestreamt bekommen könnten. Zum Vergleich: WLAN nach dem N Standard ist da schon ziemlich an der Kotzgrenze.
Mit besseren Codecs und verringerter Qualität wird es besser. Auch sollte mehr bei der Internetverbindung eines Haushaltes gehen, als gerade so einen Film sehen zu können.
Ich schätze für diesen Zweck benötigt man 50 MBit/s.
Für eine annehmbare Qualität genügen um die 20Mbit/s. Wobei das qualitativ bereits spürbar besser ist als FHD über den regulären TV Anschluss. Bandbreiten um 25 Mbit/s liegen zumindest mal keine Lichtjahre in der Zukunft.
Bis 95 % aller Haushalte der relevanten Industrieländer dort sind, dauert es noch eine Weile. Selbst in Deutschland sind es nicht die Mehrheit, die diese Anschlüsse haben. (weil es für den derzeitigen Hausgebrauch ganz einfach nicht nötig ist)
Es wird also eine Weile bei optischen Datenträgern bleiben.
4K wird den Trafficbedarf vervierfachen.
4K ist auch nicht zwangsweise nötig. Die Hersteller und Provider haben aber ein Interesse daran Produkte und Services zu verkaufen.
4K im TV? Das dauert bestimmt locker 10 Jahre. Wofür auch - bei dem Kontent?
4K ist primär wie die BD für Kinofilme zu Hause.
Als BD 2005 auf den Markt kam, war in den meisten deutschen Haushalten noch nicht mal an HD zu denken. Es gab ganz wenige HDReady Sender - und das nichtmal mit vollständigem HD Programm.
TV ist nun wirklich kein Maßstab.
Die Mehrheit der mir bekannten Menschen nutzt den TV allerdings primär in diesem Sinn da entweder kein BD Player vorhanden oder zu faul für die Videothek ;)
Es war schon immer so und es gibt keinen Grund, warum es nicht immer wieder so sein wird.
Alle 5...10 Jahre ein neues Medium. BD kam 2005. Wir haben 2013. Es wird in den nächsten Jahren kommen... da bin ich mir ganz sicher.
Wird es auch, keine Frage. Die Frage ist schlichtweg wie viele sich noch einen Player kaufen wenn es die Inhalte in vielen Fällen auch als FHD Stream gibt.
robbitop
2013-01-24, 16:01:28
Hab es oben noch editiert. Optische Datenträger sind nicht zwangsläufig sehr günstig. CD und DVD sind als Sonderfälle zu betrachten da diese Formate auch im EDV und Audio Bereich zum absoluten Standard wurden. Das ist schon bei BD so nicht mehr gegeben.
Das ist eine Frage der Abschreibungskosten der Pressmaschinen auf die produzierte Anzahl. Ich gehe jede Wette ein, dass auch eine BD nur Centberträge kostet mittlerweile.
Für eine annehmbare Qualität genügen um die 20Mbit/s. Wobei das qualitativ bereits spürbar besser ist als FHD über den regulären TV Anschluss. Bandbreiten um 25 Mbit/s liegen zumindest mal keine Lichtjahre in der Zukunft.
Ja 20 MBit. Dann kannst du aber auch nichts mehr machen. Kein Youtube, keine Downloads, keinen zweiten Film. Die Leitung ist unbenutzbar dann. In einem Haushalt lebt nicht nur ein Mensch.
Du brauchst in der Praxis schon 50 MBit, wenn der Film netto 20 MBit braucht. Für Spitzen, für Reserven, dass die Pings beim Spielen nicht einbrechen und ggf. für einen 2. Film.
4K ist auch nicht zwangsweise nötig. Die Hersteller und Provider haben aber ein Interesse daran Produkte und Services zu verkaufen.
Es ging doch hier aber um 4K und Anbindung über das Internet. Du bezeichnetest doch optische Datenträger als veraltet.
Sie sind so lange nicht veraltet, bis das Internet den neusten Videostandard problemlos an ~95 % der Haushalte liefern kann. Und zwar mit Reserve.
Das dauert noch...
Die Mehrheit der mir bekannten Menschen nutzt den TV allerdings primär in diesem Sinn ;)
Schlechter Kontent wird durch hohe Auflösung nicht besser. ;)
Im TV ist IMO FullHD ersteinmal mehr als genug.
4K ist IMO erstmal ein Kino-zu-Hause-Format. Analog zu FullHD.
Die Frage ist schlichtweg wie viele sich noch einen Player kaufen wenn es die Inhalte in vielen Fällen auch als FHD Stream gibt.
Nicht vergleichbar. Schaue dir die VoD Landschaft doch bitte mal an. Angebot: lächerlich. Bildqualität: solala. Sound: oftmals nur Stereo. Ansonsten maximum Dolbi Digital. Kein Vergleich.
Außerdem fehlt vielen die Internetverbindung dafür und viele sind noch eher bei körperlichen Medien die man im richtigen Laden kaufen/leihen kann.
VoD kennt und nutzt nur ein Bruchteil.
VoD hat langfristig schon das Potenzial, optische Datenträger abzulösen. Aber es braucht leider noch Zeit. Zeit zum Umdenken beim Nutzer, Zeit zum Umdenken bei den Rechteinhabern, Zeit bis wirklich alle die notwendige Bandbreite haben.
YfOrU
2013-01-24, 16:33:28
Das ist eine Frage der Abschreibungskosten der Pressmaschinen auf die produzierte Anzahl. Ich gehe jede Wette ein, dass auch eine BD nur Centberträge kostet mittlerweile.
Das spiegelt sich weder bei den Medien noch bei den Abspielgeräten in Relation zur DVD wieder. Kann es auch nicht denn die Technik ist aufwendiger und der Absatz (->Steigerung) ist über die Zeitachse auch geringer.
Ja 20 MBit. Dann kannst du aber auch nichts mehr machen. Kein Youtube, keine Downloads, keinen zweiten Film. Die Leitung ist unbenutzbar dann. In einem Haushalt lebt nicht nur ein Mensch.
Du brauchst in der Praxis schon 50 MBit, wenn der Film netto 20 MBit braucht. Für Spitzen, für Reserven, dass die Pings beim Spielen nicht einbrechen und ggf. für einen 2. Film.
Das stimmt so nicht denn ansonsten wäre VoIP auch heute noch in der Praxis unbrauchbar. Über vernünftiges QoS lässt sich das ganz gut handhaben.
Es ging doch hier aber um 4K und Anbindung über das Internet. Du bezeichnetest doch optische Datenträger als veraltet.
Der Zenit ist überschritten. Das die von heute auf morgen verschwinden ist vollkommen unrealistisch.
Sie sind so lange nicht veraltet, bis das Internet den neusten Videostandard problemlos an ~95 % der Haushalte liefern kann. Und zwar mit Reserve.
Das dauert noch...
Es finden sich immer Anwendungsfälle für ROMs mit hoher Kapazität. Das landet in der Zukunft aber eher in der Nische als im Mainstream.
Schlechter Kontent wird durch hohe Auflösung nicht besser. ;)
Im TV ist IMO FullHD ersteinmal mehr als genug.
4K ist IMO erstmal ein Kino-zu-Hause-Format. Analog zu FullHD.
Womit wir wieder beim Thema Nische sind.
VoD hat langfristig schon das Potenzial, optische Datenträger abzulösen. Aber es braucht leider noch Zeit. Zeit zum Umdenken beim Nutzer, Zeit zum Umdenken bei den Rechteinhabern, Zeit bis wirklich alle die notwendige Bandbreite haben.
Insgesamt gehe ich davon aus das diese Entwicklung am Markt schneller Akzeptanz und Verbreitung finden wird als 4K im Zusammenspiel mit neuen optischen Medien. Die DVD hat als Beispiel geschlagene 8 Jahre benötigt um den Zenit zu erreichen.
dildo4u
2013-01-24, 16:44:15
Timothy Lottes (Nvidia) fast die Vorteile einer Konsolenumgebung noch mal zusammen in Verbindung mit den Spekulierten Specs.
I could continue here, but I'm not, by now you get the picture, launch titles will likely be DX11 ports, so perhaps not much better than what could be done on PC. However if Sony provides the real-time OS with libGCM v2 for GCN, one or two years out, 1st party devs and Sony's internal teams like the ICE team, will have had long enough to build up tech to really leverage the platform.
I'm excited for what this platform will provide for PS4-only 1st party titles and developers who still have the balls to do a non-portable game this next round.
http://timothylottes.blogspot.fr/2013/01/orbis-and-durango.html
Finch
2013-01-24, 16:48:49
und lässt kaum ein gutes Haar an der X720
Silentbob
2013-01-24, 17:01:40
SONY scheint, wenn man den Gerüchten glauben will, wirklich das potentere Design zu haben. Wann ist nochmal die E3, muss pünktlich zum Bahnhof um den Hyptrain nicht zu verpassen :ugly:
Finch
2013-01-24, 17:07:57
ende Mai oder anfang Juni, müsste da auch mal googeln. Wollte eigentlich vond er PS3 auf eine Xbox 720 wechseln, aber so wie es aussieht, wird es doch die PS4.
Skysnake
2013-01-24, 17:10:39
und lässt kaum ein gutes Haar an der X720
Was erwartest du, da ist ja auch die Konkurrenz drin :rolleyes:
][immy
2013-01-24, 17:16:19
Timothy Lottes (Nvidia) fast die Vorteile einer Konsolenumgebung noch mal zusammen in Verbindung mit den Spekulierten Specs.
http://timothylottes.blogspot.fr/2013/01/orbis-and-durango.html
nun.. spätestens mit seiner "Meinung" über windows und den "overhead" hat er sich disqualifiziert (meiner Meinung nach)
so ists einfach nur bashing.
btw. was ist eigentlich aus dem gerücht geworden das MS 2 Konsolen rausbringen will. Eine für APPs & Arcade und streaming und eine für AAA-Titel. Wenn das zutreffen sollte, könnte die bisherigen specs auch die der kleine box sein (wobei diese dann ein wenig overpowered ware)
Was erwartest du, da ist ja auch die Konkurrenz drin
In der PS4 auch
M4xw0lf
2013-01-24, 17:18:02
Was erwartest du, da ist ja auch die Konkurrenz drin :rolleyes:
Er redet aber ja auch über die PS4, wo ebenfalls die Konkurrenz drin ist :wink:
Edith sagt: zu langsam
robbitop
2013-01-24, 17:22:14
Das stimmt so nicht denn ansonsten wäre VoIP auch heute noch in der Praxis unbrauchbar. Über vernünftiges QoS lässt sich das ganz gut handhaben.
VoD meinst du?
Die haben auch viel geringere Bitraten und schlechtere Audioqualität. Siehe vorherige Posts. Echte FullHD + mind. DTS - das dauert noch.
Es finden sich immer Anwendungsfälle für ROMs mit hoher Kapazität. Das landet in der Zukunft aber eher in der Nische als im Mainstream.
Langfristig ja. Aber nicht kurz- oder mittelfristig.
Womit wir wieder beim Thema Nische sind.
Kinofilme für zu Hause sind Nischen? Die Verkaufszahlen sehen nicht so aus.
Insgesamt gehe ich davon aus das diese Entwicklung am Markt schneller Akzeptanz und Verbreitung finden wird als 4K im Zusammenspiel mit neuen optischen Medien. Die DVD hat als Beispiel geschlagene 8 Jahre benötigt um den Zenit zu erreichen.
Dir geht es in deinen Posts immer um einen sehr hohen Verbreitungsgrad. Warum? Wenns nur darum geht, ist TV das allerwichtigste?
Ich würde seit mindestens 4 Jahren nicht mehr ohne BD mehr auskommen wollen. Und es ist seit 4-5 Jahren bezahlbar und gut erhältlich.
Ob jetzt die große Masse es nutzt oder nicht, ist doch egal.
4K wird die neue Speerspitze werden und das Verkaufsargument in den nächsten Jahren und es wird als Nachfolgeformat zu FullHD in der BD kommen. Darum gings.
aufkrawall
2013-01-24, 17:25:56
VoD meinst du?
Siehe vorherige Posts. Echte FullHD + mind. DTS - das dauert noch.
Man muss ja auch nicht jeden Schwachsinn von den BDs aufs Streaming übertragen.
35 Mbit (maximale Spec, kommt in der Praxis vor) braucht kein Video, 24 Bit 96000 Khz braucht keine Tonspur.
Halt der typische Hirnfick der Contentindustrie.
robbitop
2013-01-24, 17:28:32
Man muss ja auch nicht jeden Schwachsinn von den BDs aufs Streaming übertragen.
35 Mbit (maximale Spec, kommt in der Praxis vor) braucht kein Video, 24 Bit 96000 Khz braucht keine Tonspur.
Halt der typische Hirnfick der Contentindustrie.
Habe ich ja bereits eingeräumt mit "bessere Codecs".
Aber: gutes DTS + gute Bitraten bei einem effizientem Codec würden schon zu ~ 20 Mbit für Ton + Film führen bei FullHD. Das sind dann in Summe in etwa 14 GiB pro Film bei 90 Min.
aufkrawall
2013-01-24, 17:35:25
Habe ich ja bereits eingeräumt mit "bessere Codecs".
Aber: gutes DTS + gute Bitraten bei einem effizientem Codec würden schon zu ~ 20 Mbit für Ton + Film führen bei FullHD. Das sind dann in Summe in etwa 14 GiB pro Film bei 90 Min.
Wofür brauchst du DTS?
Mit Dithering kannst du auf 24 Bit/96000 Khz quasi komplett verzichten, es sei denn du willst Fledermäuse oder Hunde beschallen. :biggrin:
Da brauchst du, wenn du von verlustloser Quelle konvertierst, wahrscheinlich nur 500kbit mit gutem AAC/Vorbis/Opus bei 5.1.
7.1 ist ja Niesche, wobei das mit vernünftigem Chanel Coupling wohl auch nicht die Welt wär.
Besseren Videocodec gibt es quasi schon, nennt sich x264 10 Bit.
Wär alles schon machbar...
tobor
2013-01-24, 18:28:31
[immy;9628868']
btw. was ist eigentlich aus dem gerücht geworden das MS 2 Konsolen rausbringen will. Eine für APPs & Arcade und streaming und eine für AAA-Titel. Wenn das zutreffen sollte, könnte die bisherigen specs auch die der kleine box sein (wobei diese dann ein wenig overpowered ware)
Durch irgendetwas muss sich die Set-Top-Box absetzen. Kinect und Arcadespiele reichen da kaum.Letzeres hat auch die Konkurrenz.NextGenspiele in geringerer Qualitaet aber dennoch deutlich besser als Spiele auf Smartphones und auch der Xbox 360 koennte fuer viele attraktiv sein. Vor allem in Verbindung mit einem niedrigen Preis.
pittiplatsch
2013-01-24, 19:51:49
@Finch
Hat ich eigentlich auch vor, in der naiven Annahme, das MS nach 7Jahren Entwicklungszeit (Entwicklung begann konzeptionell bereits 2006), im Stande ist, einen Hardwarekracher aufs Parkett zu legen, aber wenn man sich so umhört, KinectBox as Casual.
Naja erstmal abwarten, ob sich das bewahrheitet, wenn ja, dann hallo Ps4. ;D
robbitop
2013-01-24, 20:06:16
Wofür brauchst du DTS?
Mit Dithering kannst du auf 24 Bit/96000 Khz quasi komplett verzichten, es sei denn du willst Fledermäuse oder Hunde beschallen. :biggrin:
Da brauchst du, wenn du von verlustloser Quelle konvertierst, wahrscheinlich nur 500kbit mit gutem AAC/Vorbis/Opus bei 5.1.
7.1 ist ja Niesche, wobei das mit vernünftigem Chanel Coupling wohl auch nicht die Welt wär.
Besseren Videocodec gibt es quasi schon, nennt sich x264 10 Bit.
Wenn, dann muss es ein Standard Codec sein, den alle AV-Receiver dekodieren können. Das sind entweder Dolby Digital oder DTS (bzw deren unkomprimierte HD Varianten).
Dolby Digital ist nur bis 640 kbit/s komprimierbar. Für alle 6 Kanäle! Das sind 213 kbit/s pro 2 Kanäle. Wie gut das AC3 Verfahren komprimiert, weiß ich nicht. Ich nehme aber an, schlechter als alle modernen Codes. Das Zeug ist ja auch schon von 1992.
Bei aktuellem MP3 Codec erachte ich 384 kbit/s pro 2 Kanäle als hoch qualitativ. Dolby Digital leistet das also nicht mehr.
DTS bietet 1,5 MBit für 6 Kanäle.
Ich bin auch gegen unkomprimierte Speicherung des Tons (bzw nicht verlustbehaftete) - da man den Unterschied nicht hört. Aber in heutigen Zeiten kann man, wenn man schon für das Bild 15 MBit/s ausgeben kann, nicht zu sehr am Ton sparen. 1,5 MBit empfinde ich für 6 Kanäle als nicht zu viel.
aufkrawall
2013-01-24, 21:11:47
Wenn, dann muss es ein Standard Codec sein, den alle AV-Receiver dekodieren können. Das sind entweder Dolby Digital oder DTS (bzw deren unkomprimierte HD Varianten).
Was ist ein Receiver? :D
Die Smart-TVs können doch alle immerhin AAC. Vorbis weiß ich nicht, müsst ich mal mit dem Samsung testen, der hier rumsteht.
Dolby Digital ist nur bis 640 kbit/s komprimierbar. Für alle 6 Kanäle! Das sind 213 kbit/s pro 2 Kanäle. Wie gut das AC3 Verfahren komprimiert, weiß ich nicht. Ich nehme aber an, schlechter als alle modernen Codes. Das Zeug ist ja auch schon von 1992.
Wieso bestehst du denn so auf diese Standardformate?
Wenn schon Inhalte übers Netz gestreamt werden, ist Codec-Unterstützung im Grunde auch nur einen Klick entfernt.
Bei aktuellem MP3 Codec erachte ich 384 kbit/s pro 2 Kanäle als hoch qualitativ.
Multichannel-MP3 gibts ja kaum. Kann Lame das überhaupt?
MP3 ist ja im Grunde auch schon Steinzeit.
DTS bietet 1,5 MBit für 6 Kanäle.
Da geht aber ne Menge Platz bei für 24 Bit und eventuell höhere Abtastrate drauf.
Ich bin auch gegen unkomprimierte Speicherung des Tons (bzw nicht verlustbehaftete) - da man den Unterschied nicht hört. Aber in heutigen Zeiten kann man, wenn man schon für das Bild 15 MBit/s ausgeben kann, nicht zu sehr am Ton sparen. 1,5 MBit empfinde ich für 6 Kanäle als nicht zu viel.
Wenn man mit einem freiem Format und einem Mbit weniger Transparenz erreicht, ist das aber besser. ;)
Streaming ist ja auch immer noch etwas kritisch, sowohl für Anbieter (Kosten) als auch Konsument (Leitung).
Da sollte so unnützer Kram imho über Board geworfen werden.
Deinorius
2013-01-24, 21:26:34
Streaming ist ja auch immer noch etwas kritisch, sowohl für Anbieter (Kosten) als auch Konsument (Leitung).
Da sollte so unnützer Kram imho über Board geworfen werden.
Es ist traurig, wie sehr man das Bild über den Ton lobt. Unmengen an Geld für TV hinauswerfen und dann nicht mal die Hälfte für eine vernünftige Soundanlage ausgeben, die länger hält als der TV selber! :P
aufkrawall
2013-01-24, 21:33:03
Es ist traurig, wie sehr man das Bild über den Ton lobt. Unmengen an Geld für TV hinauswerfen und dann nicht mal die Hälfte für eine vernünftige Soundanlage ausgeben, die länger hält als der TV selber! :P
Mich falsch verstanden?
Ich sagte nicht, dass man hochqualitativen Ton über Board werfen sollte, sondern diesen rationalisieren.
Deinorius
2013-01-24, 21:38:14
Könntest du das dann näher erläutern? DTS bietet einen qualitativ sehr guten Sound, der durch Dolby Digital nicht wirklich ersetzt werden kann. AAC/Vorbis/Opus können da schon eher aushelfen, da fehlt es dann aber schon eher an Kompatibilität.
Vorbis geht nur in MKV. An MKV scheitert es nicht, nur, dass kein Anbieter MKV nutzt.
MP4 kann offiziell nur AAC und wehe, mir kommt jemand mit dem Schummelweg.
Über Opus brauch ich erst gar nicht reden.
Darüber hinaus stellt sich dann noch die Frage, wie weit 5.1 unterstützt wird. Immerhin müssen auch die Kanäle richtig dekodiert und verteilt werden. Ich kann mich noch erinnern, wie nicht unproblematisch das bei Vorbis der Fall, welcher zwar an sich Multichannel kann, aber nicht unbedingt empfehlenswert ist. (Oder hat sich das mit aktuelleren Enkodern verbessert?)
Darüber hinaus tun 1,5 MBit/s Ton nicht weh, wenn man für Video 15-20 MBit/s nutzt. 720p Streams mit nicht mal 4 MBit/s sind da natürlich etwas anderes.
aufkrawall
2013-01-24, 21:50:30
Könntest du das dann näher erläutern? DTS bietet einen qualitativ sehr guten Sound, der durch Dolby Digital nicht wirklich ersetzt werden kann.
Da kann ich dir nichts näher erläutern, aber was Dolby angeht zustimmen.
Was ich an DTS kritisiere, ist die relativ hohe Bitrate.
Das wird mit DTS MA lossless etc. auch immer schlimmer, der dümmste Schwachsinn mit 96.0 KHz. So was muss man ja wohl wirklich nicht streamen. :D
Vorbis geht nur in MKV. An MKV scheitert es nicht, nur, dass kein Anbieter MKV nutzt.
Vorbis geht auch in WebM, welches langfristig hoffentlich zum Standard wird und somit auch von kommerziellen Geräten weitgehend unterstützt werden sollte.
Ich weiß gerade aber nicht, ob H.264 in WebM geht. Mal ausprobieren...
Über Opus brauch ich erst gar nicht reden.
Wird sich auch noch weiter verbreiten. Weiß aber nicht, wie gut es als Filmton-Format mit Multichannel etc. agiert.
Darüber hinaus stellt sich dann noch die Frage, wie weit 5.1 unterstützt wird. Immerhin müssen auch die Kanäle richtig dekodiert und verteilt werden. Ich kann mich noch erinnern, wie nicht unproblematisch das bei Vorbis der Fall, welcher zwar an sich Multichannel kann, aber nicht unbedingt empfehlenswert ist. (Oder hat sich das mit aktuelleren Enkodern verbessert?)
Gabe in den letzten Jahren einige Multichannel-Fixes bei Vorbis.
Hab kein Surround, kannst du ja vielleicht mal ausprobieren:
http://www.rarewares.org/files/ogg/oggenc2.87-aoTuVb6.03-LancerSSE3_x64.zip
Darüber hinaus tun 1,5 MBit/s Ton nicht weh, wenn man für Video 15-20 MBit/s nutzt. 720p Streams mit nicht mal 4 MBit/s sind da natürlich etwas anderes.
Sind bei 15 Mbit immerhin schon 10%.
Wenn sich das auf unter 5% reduzieren ließe, würde das dem Anbieter sicherlich schon nennenswert Traffic sparen.
Deinorius
2013-01-24, 22:31:10
Was ich an DTS kritisiere, ist die relativ hohe Bitrate.
Wir nehmen doch schon die zehnfache Bitrate für ein Bild in Kauf, wo die meisten Menschen nicht mal den Unterschied zwischen 720p und 1080p erkennen würden, ohne näher an den TV gehen zu müssen (je nach Größe des TVs). Ich weiß ja, dass es auch kompakter geht, aber mich stört, dass die Relation hier so unausgewogen sein soll.
Das wird mit DTS MA lossless etc. auch immer schlimmer, der dümmste Schwachsinn mit 96.0 KHz. So was muss man ja wohl wirklich nicht streamen. :D
Lossless Codecs auf BD gibt es ja auch nur, weil Platz da ist. Eine BD, wo es Verschwendung wäre, wenn man nicht die gesamten 25/50 GB ausnutzen würde, ist etwas anderes als Traffic, wo die Nutzung anders abläuft.
Beschwere dich nicht über Lossless Codecs. Es gibt ja immerhin auch noch unkomprimierte 7.1 PCM Streams!! :ugly:
Vorbis geht auch in WebM, welches langfristig hoffentlich zum Standard wird und somit auch von kommerziellen Geräten weitgehend unterstützt werden sollte.
Ich weiß gerade aber nicht, ob H.264 in WebM geht. Mal ausprobieren...
Ach ja, du hast recht. WebM habe ich ja ganz vergessen. Ich bin zwar etwas skeptischer, hoffe aber dennoch, dass es Verbreitung findet. Immerhin basiert es auf Matroska. Eigentlich müsste es dadurch grundlegend H.264 fähig sein, aber es würde mich nicht überraschen, wenn Google das nicht eingepflegt hat. Immerhin wurde WebM erst entwickelt, um H.264 nicht nutzen zu müssen.
Gabe in den letzten Jahren einige Multichannel-Fixes bei Vorbis.
Hab kein Surround, kannst du ja vielleicht mal ausprobieren:
http://www.rarewares.org/files/ogg/oggenc2.87-aoTuVb6.03-LancerSSE3_x64.zip
Hmm... wäre wirklich mal einen Test wert. Aber den Enkoder habe ich natürlich schon. ;)
Sind bei 15 Mbit immerhin schon 10%.
Wenn sich das auf unter 5% reduzieren ließe, würde das dem Anbieter sicherlich schon nennenswert Traffic sparen.
Pass auf, dass der Anbieter nicht eher an der Video-Bitrate oder der Auflösung spart. ;) Ups... zu spät. :freak:
aufkrawall
2013-01-24, 23:15:35
Wir nehmen doch schon die zehnfache Bitrate für ein Bild in Kauf, wo die meisten Menschen nicht mal den Unterschied zwischen 720p und 1080p erkennen würden, ohne näher an den TV gehen zu müssen (je nach Größe des TVs). Ich weiß ja, dass es auch kompakter geht, aber mich stört, dass die Relation hier so unausgewogen sein soll.
Auf den BDs wird ja auch jede Menge Platz für Video verschwendet, gibt VC-1 Streams mit 35mbit.
Das ist für 24fps 4:2:0 CSS der reinste Overkill. Mit x264 10 Bit wären da 4:4:4 drin bei womöglich 30fps oder mehr drin.
Da ließe sich also auch ordentlich einsparen.
Will sagen: Man muss ja den BD-Schwachsinn sowohl bei Video als auch Audio nicht aufs Streaming übertragen.
Wird aber natürlich trotzdem so kommen, dafür werden die Patentparasiten schon sorgen.
Ob Audio in Releation zu Video "zu wenig" Platz wegnimmt, ist für mich keine gültige Prämisse bei der Wahl der Technik.
Beschwere dich nicht über Lossless Codecs. Es gibt ja immerhin auch noch unkomprimierte 7.1 PCM Streams!! :ugly:
Auf BDs?
Ach ja, du hast recht. WebM habe ich ja ganz vergessen. Ich bin zwar etwas skeptischer, hoffe aber dennoch, dass es Verbreitung findet. Immerhin basiert es auf Matroska. Eigentlich müsste es dadurch grundlegend H.264 fähig sein, aber es würde mich nicht überraschen, wenn Google das nicht eingepflegt hat. Immerhin wurde WebM erst entwickelt, um H.264 nicht nutzen zu müssen.
Jo, scheint nicht zu gehen.
Zu dumm, dass in diesem patentgebremsten Umfeld sich nicht die besten Ideen (Matroska) durchsetzen.
Pass auf, dass der Anbieter nicht eher an der Video-Bitrate oder der Auflösung spart. ;) Ups... zu spät. :freak:
Ja, bisher ist flüssiges HQ-Streaming ein reines Hirngespinst.
Da dürften auch wieder Lizenzstreitigkeiten nicht ganz unschuldig dran sein...
So langsam drängt sich der Eindruck auf, alles raubmordzukopieren ist moralisch am integersten, da muss was kaputt gehen (Neustart).
Deinorius
2013-01-25, 00:06:31
Auf den BDs wird ja auch jede Menge Platz für Video verschwendet, gibt VC-1 Streams mit 35mbit.
Das ist für 24fps 4:2:0 CSS der reinste Overkill. Mit x264 10 Bit wären da 4:4:4 drin bei womöglich 30fps oder mehr drin.
Du hast ja an sich recht, aber es benutzen ja nicht alle x264 (würde mich wundern, wenn überhaupt jemand in der Industrie). Wer einen bescheidenen Enkoder nutzt, tja, besser her mit der Bitrate. Mit x264 brauche ich für ein FullHD Video keine 10 MBit/s, locker.
Will sagen: Man muss ja den BD-Schwachsinn sowohl bei Video als auch Audio nicht aufs Streaming übertragen.
Sowieso, hat ja auch keiner verlangt.
Ob Audio in Releation zu Video "zu wenig" Platz wegnimmt, ist für mich keine gültige Prämisse bei der Wahl der Technik.
Touché.
Auf BDs?
Soll schon vorgekommen sein, frag mich aber nicht nach den BDs. Zum Glück dürfte das eher die Ausnahme sein als die Regel.
Zu dumm, dass in diesem patentgebremsten Umfeld sich nicht die besten Ideen (Matroska) durchsetzen.
Amen Bruder!
Da dürften auch wieder Lizenzstreitigkeiten nicht ganz unschuldig dran sein...
So langsam drängt sich der Eindruck auf, alles raubmordzukopieren ist moralisch am integersten, da muss was kaputt gehen (Neustart).
Irgendwie würde ich jetzt am liebsten "ABDULLAAAAH!!!" rufen! :ugly:
pixelguy
2013-01-25, 00:35:20
Um mal wieder aufs Thema zurückzukommen: http://www.golem.de/news/john-carmack-gpus-brauchen-nur-kleine-aenderungen-fuer-raytracing-1301-97128.html
Zumindest bei der nächsten Xbox gab es ja schon Raytracing-Gerüchte. Wie schätzt ihr diese ein? Wo läge der Vorteil?
del_4901
2013-01-25, 00:45:32
Um mal wieder aufs Thema zurückzukommen: http://www.golem.de/news/john-carmack-gpus-brauchen-nur-kleine-aenderungen-fuer-raytracing-1301-97128.html
Zumindest bei der nächsten Xbox gab es ja schon Raytracing-Gerüchte. Wie schätzt ihr diese ein? Wo läge der Vorteil?
Argh bitte das wird doch langsam alt. Vorteile sehe ich fuer lange Zeit erstmal keine. Es ist praktisch einfach immernoch viel zu langsam und ineffizient. Hier ist uebrigens die Orginal Quelle: https://twitter.com/ID_AA_Carmack/status/294166435066961920
Die Secondary Rays sind das Problem, die zwingen selbst die schnellste GPU wegen Ihrer Cacheunfreundlichkeit ganz schnell in die Knie.
Tesseract
2013-01-25, 01:27:41
Um mal wieder aufs Thema zurückzukommen: http://www.golem.de/news/john-carmack-gpus-brauchen-nur-kleine-aenderungen-fuer-raytracing-1301-97128.html
Zumindest bei der nächsten Xbox gab es ja schon Raytracing-Gerüchte. Wie schätzt ihr diese ein? Wo läge der Vorteil?
carmack baut seit ewigkeiten hobbymäßig raytracing-demos. das problem an raytracing ist halt, dass es gegenüber rasterisierung hochgradig ineffizient ist und sich deswen für echtzeitgrafik kaum eignet - wenn dann höchstens für ganz bestimmte effekte innerhalb einer raster-engine deren komplexität relativ überschaubar ist.
ich verstehe auch nicht wo dieser ganze raytracing-hype in der öffentlichkeit immer wieder her kommt. raytracing hat auch einen haufen nachteile, vor allem im bereich aliasing. dagegen ist das heutige shaderflimmern oft kindergeburtstag wenn man nicht aufpasst. auch kann "klassisches" raytracing bei weitem nicht alle effekte abdecken ohne den rechenaufwand explodieren zu lassen.
raytracing ist halt nett für demos die speziell auf seine stärken eingehen, d.h. in der regel reflexionen. reflexionen gibt es aber in "realistischen" szenen relativ selten und wenn ist es meist relativ einfach die billig zu faken sodass die trotzdem recht gut aussehen.
was sich hingegen massiv auf die subjektive bildqualität vieler praxisrelevanter szenen auswirken würde wären solche sachen wie radiosity. das wär mal wirklich interessant im breiten einsatz zu sehen.
edit:
https://twitter.com/ID_AA_Carmack/status/294166435066961920
ok, carmack sagt im prinzip eh das gleiche wie ich, es wurde nur mal wieder ziemlich fehlinterpretiert. :freak:
ich verstehe auch nicht wo dieser ganze raytracing-hype in der öffentlichkeit immer wieder her kommt.
Das hat mehrere Gründe:
- Die Presse macht regelmäßig Werbung dafür
- Es wird mit Filmqualität gleichgesetzt, obwohl es ja auch da spärlich eingesetzt wird
- Man sieht oft beeindruckende Bilder aus dem Offline-Rendering Bereich
- Die Grundidee ist viel leichter zu verstehen und vermittelt den Eindruck effizienter zu sein
- Die Log(n) Falle
- Die Leute träumen davon, dass eine grundlegende Änderung einen Quantensprung in de Qualität bringt. Veränderung ist für Menschen erstmal positiv.
- Leute wie Daniel Pohl präsentieren es immer noch als ob es der heilige Gral wäre...
pixelguy
2013-01-26, 12:09:18
Aber wurde nicht in Bezug auf die nächste Xbox erwähnt, dass diese Raytracing Eigenschaften besitzt? Würde dies denn überhaupt Sinn machen?
Skysnake
2013-01-26, 13:32:29
Was sind denn bitte Raytraccingeigenschaften? ;D
Du kannst mit jeder cpu und gpu rayracing machen, fragt sich nur wie schnell ;)
robbitop
2013-01-26, 13:42:29
Was ist ein Receiver? :D
Die Smart-TVs können doch alle immerhin AAC. Vorbis weiß ich nicht, müsst ich mal mit dem Samsung testen, der hier rumsteht.
Wieso bestehst du denn so auf diese Standardformate?
Wenn schon Inhalte übers Netz gestreamt werden, ist Codec-Unterstützung im Grunde auch nur einen Klick entfernt.
Multichannel-MP3 gibts ja kaum. Kann Lame das überhaupt?
MP3 ist ja im Grunde auch schon Steinzeit.
Da geht aber ne Menge Platz bei für 24 Bit und eventuell höhere Abtastrate drauf.
Wenn man mit einem freiem Format und einem Mbit weniger Transparenz erreicht, ist das aber besser. ;)
Streaming ist ja auch immer noch etwas kritisch, sowohl für Anbieter (Kosten) als auch Konsument (Leitung).
Da sollte so unnützer Kram imho über Board geworfen werden.
Ich glaube, iTunes bietet alles in 384 kbit AAC+ für Musik (2 Kanäle). Simfy im Premium Abo ebenso. Das ist IMO die Referenz. Weniger möchte ich nicht haben.
Natürlich geht mit freien modernen Codes mehr. Da stimme ich dir zu. Aber du musst etablierte schon Standards nutzen, um sicherzugehen, dass 95 % der Nutzer auch etwas davon haben.
Wenn du am heimischen TV auch eine anständige Musikanlage (mit großen Standlautsprechern und richtig guten und teuren Subwoofern) hast und nicht nur Brüllwürfelchen, dann hast du auch einen AV-Receiver (bzw einen Vorverstärker und eine Endstufe). Und dann möchtest du auch einen Bitstream haben, den dein teurer AV Reiver dekodiert damit du seinen sehr guten DSP und seinen sehr guten DAC und seinen sehr guten Vorverstärker nutzen kannst, anstatt irgendwelchen anderen Ramsch.
Also brauchst du: DTS, DD oder deren HD Derivate.
1,5 MBit - was ist das schon, wenn wir über > 1 Größenordnung mehr für den gesamten Stream sprechen? Nicht nur das Bild ist wichtig, auch der Ton. ;)
Natürlich geht mit freien modernen Codes mehr.
Mehr als 384 kBit/s AAC+ geht sowieso nicht. Das ist völlig transparent. Außer du bist ein Hund.
Iamnobot
2013-01-26, 14:45:30
Kleine Erinnerung an den c't mp3 Hörtest (von 2000!), damit kann man jede Bitraten Diskussion à la: "und ich höre garantiert einen Unterschied" im Keim ersticken.
http://www.heise.de/ct/artikel/Kreuzverhoertest-287592.html
Tesseract
2013-01-26, 15:01:04
ich frage mich sowieso wie man die bitratenunterschiede überhaupt hören will wenn die qualität in den meisten fällen sowieso an der restlichen hardware hängt. mit schlechten boxen/KH hört man vor allem wie schlecht diese eben sind, mit wirklich guten boxen/KH hört man dann erstmal die mängel des mikrofons mit dem aufgenommen wurde und wie abgemischt bzw. digitalisiert wurde.
meine K701 hängen bei quasi jeder nicht-synthetischen musik hörbar an der aufnahmequalität fest, lange bevor die kompressionsartefakte störend werden könnten.
Kleine Erinnerung an den c't mp3 Hörtest (von 2000!)
Wir reden von AAC+ und dem Jahr 2013, nicht MP3 im Jahr 2000.
Iamnobot
2013-01-26, 15:04:59
Wir reden von AAC+ und dem Jahr 2013, nicht MP3 im Jahr 2000.
Welches vor allem bei niedrigen Bitraten bessere Klangqualität liefert, somit dürfte man schon bei weit weniger als den 256 kbit/s bei MP3 aus 2000 keinen Unterschied zum Original mehr hören können.
Vermutlich, ja. Wobei's 2000 noch recht ranzige Encoder gab. Das hat nämlich mindestens einen genauso großen Einfluss wie die Bitrate.
Iamnobot
2013-01-26, 15:08:54
Das sind aber alles Faktoren, die die Aussage auf die ich hinauswollte unterstützen und nicht schwächen...
Hallo
2013-01-26, 15:56:10
ich frage mich sowieso wie man die bitratenunterschiede überhaupt hören will wenn die qualität in den meisten fällen sowieso an der restlichen hardware hängt. mit schlechten boxen/KH hört man vor allem wie schlecht diese eben sind, mit wirklich guten boxen/KH hört man dann erstmal die mängel des mikrofons mit dem aufgenommen wurde und wie abgemischt bzw. digitalisiert wurde.
meine K701 hängen bei quasi jeder nicht-synthetischen musik hörbar an der aufnahmequalität fest, lange bevor die kompressionsartefakte störend werden könnten.
Das ist ganz einfach,man hat nen gescheiten Verstärker (stereo) der weit über 10Kg wiegt und dann ein Dynaudio-Päärchen und das ganze angetrieben von nem CD Player der ebenfalls knapp 10Kg wiegt:D
So,wenn man das schon immer gewohnt ist ist jeder komprimierte Mist=Müll egal ob elektronische oder klassische Musik.
PCM 16Bit/44Khz sollte das Minimum sein ohne irgendwelche Kompressionstricks...
aufkrawall
2013-01-26, 16:02:45
Wenn du am heimischen TV auch eine anständige Musikanlage (mit großen Standlautsprechern und richtig guten und teuren Subwoofern) hast und nicht nur Brüllwürfelchen, dann hast du auch einen AV-Receiver (bzw einen Vorverstärker und eine Endstufe). Und dann möchtest du auch einen Bitstream haben, den dein teurer AV Reiver dekodiert damit du seinen sehr guten DSP und seinen sehr guten DAC und seinen sehr guten Vorverstärker nutzen kannst, anstatt irgendwelchen anderen Ramsch.
Also brauchst du: DTS, DD oder deren HD Derivate.
Kenne mich mit dem Hifi-Kram nicht so aus, aber irgendwie kann ich nicht glauben, dass es Bitstreaming braucht, um ein gescheites Signal auszugeben.
PCM 16Bit/44Khz sollte das Minimum sein ohne irgendwelche Kompressionstricks...
:crazy:
Finch
2013-01-26, 16:14:49
Kenne mich mit dem Hifi-Kram nicht so aus, aber irgendwie kann ich nicht glauben, dass es Bitstreaming braucht, um ein gescheites Signal auszugeben.
:crazy:
Da würde mein Audiophiler Vater aber was anderes sagen. Er würde da auch Hallos Beitrag sekundieren.
Ich denke wir driften vom Thema ab.
Hallo
2013-01-26, 16:18:14
Kenne mich mit dem Hifi-Kram nicht so aus, aber irgendwie kann ich nicht glauben, dass es Bitstreaming braucht, um ein gescheites Signal auszugeben.
:crazy:
Sorry(oder Glück für dich) das du noch nie einen wirklich guten Verstärker,CD-Player und vor allem gute Boxen hattest.Natürlich gehören gut abgemischte CDs ebenfalls dazu.Somit kannst du garnicht wissen was wirklich gute Klangqualität ist.
In meiner Gleichung könnte man den CD-Player noch gegen nen Technics 1210er mit ner guten Nadel austauschen:D
Sehr nah an die Wärme von Vinyl kommt wohl nur ne PS1 (die japanische Urversion) heran die wohl offensichtlich eine exzellente analoge Ausgabe hat,über Chinch versteht sich.
Ich wette mit beliegen Personen um 100€, dass keiner von euch AAC+ 256 kBit/s von einem unkomprimierten WAV in einem doppelten Blindtest unterscheiden kann.
Auch nicht auf euren auf Elfenbein getragenen, in Gold platierten 10kg schweren CD-Playern. Aber das dann in einem anderen Thread.
dargo
2013-01-26, 16:24:33
PCM 16Bit/44Khz sollte das Minimum sein ohne irgendwelche Kompressionstricks...
Eigentlich sollte FLAC reichen, ich höre zumindest keinen Unterschied und sehe auch keinen beim Frequenzgang.
del_4901
2013-01-26, 16:25:42
Kleine Erinnerung an den c't mp3 Hörtest (von 2000!), damit kann man jede Bitraten Diskussion à la: "und ich höre garantiert einen Unterschied" im Keim ersticken.
http://www.heise.de/ct/artikel/Kreuzverhoertest-287592.html
Da kennst du Game Audio Departments mit Ihren abstrusen Speicheranforderungen aber schlecht. ;-)
Hallo
2013-01-26, 16:27:54
Ich wette mit beliegen Personen um 100€, dass keiner von euch AAC+ 256 kBit/s von einem unkomprimierten WAV in einem doppelten Blindtest unterscheiden kann.
Auch nicht auf euren auf Elfenbein getragenen, in Gold platierten 10kg schweren CD-Playern. Aber das dann in einem anderen Thread.
Schon verloren,solange es sich um einen Vergleich handelt bei dem ich den Sound auf meiner Weise gewohnt bin,sprich meine CDs/Anlage kann ich sehr wohl unterscheiden ob PCM oder komprimiert.Das ganze wird noch deutlicher wenn man das alles über exzellente Kopfhörer hört.Ist alles eine Sache der Schulung des eigenen Gehörs.Wir erkennen schliesslich auch ob was in 4xAF oder 16xAF dargestellt wird.Nur weil die Masse das nicht sieht heisst das nicht das es keinen sichtbaren Unterschied gibt.
Eigentlich sollte FLAC reichen, ich höre zumindest keinen Unterschied und sehe auch keinen beim Frequenzgang.
Ja FLAC soll wohl gut sein,dennoch sobald was komprimiert/weggelassen wird fehlt was,ich will bei ner Aufnahme auch den kleinsten Fehler bei nem Gitarrenriff hören,und das geht nur bei unkomprimiertem Bitstream.Aber ja FLAC kommt wohl sehr nah ran vorausgesetzt die Kette ist von den Daten bis über die Boxen High-End.
Der richtige Vergleich wäre ob du 256x AF von 512x AF unterscheiden kannst. Kannst du auch nicht.
Eigentlich sollte FLAC reichen, ich höre zumindest keinen Unterschied und sehe auch keinen beim Frequenzgang.
FLAC IST LOSSLESS. Natürlich gibt es keinen Unterschied.
Hallo
2013-01-26, 16:42:56
Der richtige Vergleich wäre ob du 256x AF von 512x AF unterscheiden kannst. Kannst du auch nicht.
FLAC IST LOSSLESS. Natürlich gibt es keinen Unterschied.
Haha,wenn du mir ein 33Megpixel Monitor hinstellst kann ich das sehr wohl,also analog zum Sound mit Dynaudio Boxen.
Lossless??FLAC hat weniger Daten als klassisches CD PCM,richtig?Wie kann das Lossless sein?Es fehlen Daten ergo Verlust,ganz einfach.Ob man das hört ist eine andere Sache,aber es gibt Menschen die sowas nunmal hören.Sony hat nicht zum Spass SA/CD rausgebracht um die horrende Lücke zwischen Vinyl und CD einigermassen zu schliessen.
FLAC=LOSSLESS,Marketing victim anyone;)
Natürlich ist das Jammern auf sehr hohem Niveau,aber nix anderes als die Frameratenzählerei die wir hier im 3DC betreiben.
del_4901
2013-01-26, 16:47:29
Lossless??FLAC hat weniger Daten als klassisches CD PCM,richtig?Wie kann das Lossless sein?Es fehlen Daten ergo Verlust,ganz einfach.Ob man das hört ist eine andere Sache,aber es gibt Menschen die sowas nunmal hören.Wenn man ein zip, rar File verschnuert hat man dann auch Verlust? Fehlen da auch Daten nach dem entpacken?
drexsack
2013-01-26, 16:47:31
Die ganze Diskussion ist doch sowieso hinfällig. Die meisten Konsolen lärmen über die Lautsprecher des Fernsehers oder über so ein olles 200 Euro 5.1 Komplett Set. Für 99.8% der Konsolenspieler wird das wohl eher der limitierende Faktor werden.
Hallo
2013-01-26, 16:52:18
Wenn man ein zip, rar File verschnuert hat man dann auch Verlust? Fehlen da auch Daten nach dem entpacken?
Der Vergleich zieht nicht da dein Beispiel rein digital ist.
Wenn du aber einen Analogen Ausgangpunkt hast wie Musik,also Gesang zum Beispiel MUSS es Stream sein da Gesang analog ist und somit sollte man so hoch wie möglich aufgelöst aufnehmen und abspielen.Alles was weggelassen oder getrickst wird resultiert in Verlust.
Windi
2013-01-26, 16:54:45
Schon verloren,solange es sich um einen Vergleich handelt bei dem ich den Sound auf meiner Weise gewohnt bin,sprich meine CDs/Anlage kann ich sehr wohl unterscheiden ob PCM oder komprimiert.Das ganze wird noch deutlicher wenn man das alles über exzellente Kopfhörer hört. Ist alles eine Sache der Schulung des eigenen Gehörs.Wir erkennen schliesslich auch ob was in 4xAF oder 16xAF dargestellt wird.Nur weil die Masse das nicht sieht heisst das nicht das es keinen sichtbaren Unterschied gibt.
Das ist doch genau das, was die Ct 2000 getestet hat.
Hochwertige Anlage plus sehr gute Kopfhörer.
Bei 196kBit/s hatten manche noch mal einen Glückstreffer und konnten die mp3 erkennen. Alles darüber war nicht mehr zu unterscheiden.
Und die Tester waren keine mp3 geschädigten Nerds oder Handy-Kiddies, sondern Liebhaber Klassischer Musik und musikalische Wunderkinder.
Ja FLAC soll wohl gut sein,dennoch sobald was komprimiert/weggelassen wird fehlt was,ich will bei ner Aufnahme auch den kleinsten Fehler bei nem Gitarrenriff hören,und das geht nur bei unkomprimierten Bitstream.Aber ja FLAC kommt wohl sehr nah ran vorausgesetzt Die Kette ist von den Daten bis über die Boxen High-End.
FLAC ist eher so etwas wie Winzip für Musik.
Da werden die Daten nur platzsparender gespeichert, es geht nichts verloren.
Das sind mal wieder nur Voodoo-Mythen irgendwelcher realitätsfernen Audiophilen.
Iamnobot
2013-01-26, 16:56:28
Das sind mal wieder nur Voodoo-Mythen irgendwelcher realitätsfernen Audiophilen.
Genau das.
Sven77
2013-01-26, 16:59:57
...die Wärme von Vinyl...
Passt zum UFO-Tick...
Hallo
2013-01-26, 17:01:57
@Windi
Bei allem Respekt den Testern gegenüber...solange die nicht von ihren Brüdern auf Messen mitgenommen wurden und Sound gehört haben bei dem schon die ACR Boxen-Wand 160.000 DM gekostet hat wundert mich deren Ergebnis nicht.
Alles eine Frage der Schulung,was den Nachteil hat das es dann teuer wird um befriedigt zu sein,und ja Voodoo kommt auch nocht hinzu,haha!
Passt zum UFO-Tick...
Idiötchen,haha!Und lahmer Versuch weil ich hier tatsächlich weiss wovon ich rede und nen Bruder habe der schon selber Boxen gebaut hat inkl. selbst berechneter Frequenzweichen die von Fachleuten damals (1990) auf über 5.000 DM geschätzt wurden.
Dir sagt Studio26 was,ja?
Windi
2013-01-26, 17:05:19
Der Vergleich zieht nicht da dein Beispiel rein digital ist.
Wenn du aber einen Analogen Ausgangpunkt hast wie Musik,also Gesang zum Beispiel MUSS es Stream sein da Gesang analog ist und somit sollte man so hoch wie möglich aufgelöst aufnehmen und abspielen.Alles was weggelassen oder getrickst wird resultiert in Verlust.
Und wo kannst du Musik auf analogen Medien erwerben?
Ja bei der Wandlung von Analog zu Digital gibt es Verluste. Aber die Verluste sind geringer als die Nachteile, die man sich mit einem analogen Datenträger einhandeln würde. Jede CD, DVD und BR sind digital. Und du kannst all deren Ton verlustfrei in FLAC umwandeln.
mr coffee
2013-01-26, 17:09:23
Topic?
Für Hifi-Voodoo gibt's doch einen eigenen Thread, hast du den schon gelesen Hallo? Hier imponierst du niemanden mit der Argumentationskette "Was ich sage stimmt, weil ich einen Bruder hab, der schonmal Boxen zusammengebaut hat".
Hallo
2013-01-26, 17:12:52
Jaja ist ja gut,wollte nur mal meinen Senf beitragen weil ich hier tatsächlich Ahnung habe,auch ohne meinen Bruder,entspann dich:uhippie:
grobi
2013-01-26, 17:17:38
Ist das euer ernst, zwei bis drei Seiten über Audiocodecs, Formate usw?
Bitte die Diskussion auslagern.
MfG grobi
Windi
2013-01-26, 17:18:18
@Windi
Bei allem Respekt den Testern gegenüber...solange die nicht von ihren Brüdern auf Messen mitgenommen wurden und Sound gehört haben bei dem schon die ACR Boxen-Wand 160.000 DM gekostet hat wundert mich deren Ergebnis nicht.
Naja, das waren Leute die ständig an der analogen Quelle der Musik waren. (Opernhaus, Konzertsaal, ect.) Die wissen also schon wie sich die Musik im Original anhört.
Und bei allem Respekt den audiophilen Messebesucher gegenüber...eine Soundanlage auf einem akustisch nicht perfekten Messegelände kann wohl nicht mit der originalen Vorführung im Opernhaus mithalten. Die teuersten Anlagen werden vielleicht nah dran kommen, aber nie besser sein.
@all
Sorry
Tesseract
2013-01-26, 17:20:17
Jaja ist ja gut,wollte nur mal meinen Senf beitragen weil ich hier tatsächlich Ahnung habe,auch ohne meinen Bruder,entspann dich:uhippie:
du hast absolut keine ahnung, du plapperst audio-esoterik nach die du irgendwo mal gehört hast. in deinen ausführungen sind so viele fundamentale signaltheoretische fehler drin, dass einem schwindelig wird.
außerdem ist das hier hochgradig off-topic. wenn du darüber diskutieren willst mach einen eigenen thread dafür auf.
Ailuros
2013-01-26, 17:55:43
Jaja ist ja gut,wollte nur mal meinen Senf beitragen weil ich hier tatsächlich Ahnung habe,auch ohne meinen Bruder,entspann dich:uhippie:
Da Du eher Entspannung brauchst kann ich kinderleicht dafuer sorgen ausserhalb vom Forum hier.
-------------------------------------------------------------------------------
Alle: zurueck zum Thema bitte.
Ailuros
2013-01-26, 18:10:08
Nochmal fuer alle und auch fuer Dich Coda: zurueck zum Thema. Ich hab besseres zu tun als konstant Bloedsinn zu loeschen.
Wie schaut's eigentlich mit der Kühlung der bisher genannten Komponenten aus? Sind das Stromfresser? Werden die schnell warm oder darf man direkt zu Release eine leise Konsole erwarten (auf PS3 Slim Niveau z.B.)?
Knuddelbearli
2013-01-26, 18:45:52
leise wird sie wohl nie sein da wenige wärme gleich in eine billigere oder kleiner Kühlung umgemünzt wird.
Siehe die ganzen refresh. Im originalgehäuse wäre ein PS3 heute wohl passiv kühlbar
mr coffee
2013-01-26, 19:13:45
Eine Silent-Edition wäre toll, da würde ich auch Einiges für mehr zahlen.
In der Umfrage auf der Mainpage (Welche Hardware wird 2013 am meisten erwartet?) liegt die PS4 ein Stück vor dem 360er-Nachfolger, das hätte ich nicht erwartet.
Lightning
2013-01-26, 19:29:09
Wie schaut's eigentlich mit der Kühlung der bisher genannten Komponenten aus? Sind das Stromfresser? Werden die schnell warm oder darf man direkt zu Release eine leise Konsole erwarten (auf PS3 Slim Niveau z.B.)?
Die 8-Kern CPU (bei der Jaguar-Kerne vermutet werden) würde sehr sparsam sein. Kein Vergleich zu dem, was damals die CPUs von 360 und PS3 verbraucht haben. Die GPU hingegen könnte etwa vergleichbar sein.
Insgesamt erwarte ich einen Stromverbrauch etwas unter dem der Launch-PS3. Um mal eine etwas willkürlich ausgesuchte Zahl in den Raum zu werfen: 150W.
Welche GPU meinst du damit?
Deinorius
2013-01-26, 21:28:18
Was habt's ihr mit der PS3 Slim Kühlung? Die ist uninteressant. Das BD-Laufwerk ist die wahre Lärmquelle! Wenn ich etwas höre, dann das!
Natürlich können auch beide Mist bauen, indem sie die Kühlung laut sparen. Die erste Xbox 360 war extrem laut.
dildo4u
2013-01-26, 22:04:06
Um eine Slim geht's ja auch nicht der Verbrauch wird vermutlich verdoppelt mit der ersten PS4 Revision.(70 vs 150W)Das Gehäuse wird wieder größer werden,da die Kühlung aufwendiger werden muss.
Das stimmt! Das Laufwerk ist am lautesten bei beiden Konsolen (gewesen). Bei der 360 konnte man ja dann irgendwann auf die HDD installieren, vorher war es echt unverschämt laut. Quasi ein Staubsauger.
Von mir aus kann sie wieder so groß sein wie die alte Xbox1, hauptsache sie ist möglichst leise, möchte während der Filme keinen lauten Player mehr haben ODER ich muss mir einen Stand-Alone zulegen.
Deinorius
2013-01-26, 23:21:06
Um eine Slim geht's ja auch nicht der Verbrauch wird vermutlich verdoppelt mit der ersten PS4 Revision.(70 vs 150W)Das Gehäuse wird wieder größer werden,da die Kühlung aufwendiger werden muss.
Es ändert aber nix daran, dass die Laufwerke immer noch so unverschämt laut sind. Eine Kühlung kann optimiert werden, das ist jetzt nicht DAS große Problem.
Wenn beide Konsolen einen SoC verwenden, bzw. alles auf einem Package ist, wird die Kühlung automatisch simpler.
robbitop
2013-01-27, 13:59:02
Kenne mich mit dem Hifi-Kram nicht so aus
Kein Wunder, dass dir der Ton so unwichtig ist... ;)
Mach es wie Dargo und hole dir mal einen anständigen Ton Unterbau und du wirst nicht mehr zurück wollen. Ton ist eben so wichtig wie Bild IMO.
Iruwen
2013-01-28, 14:59:37
Wie schaut's eigentlich mit der Kühlung der bisher genannten Komponenten aus? Sind das Stromfresser? Werden die schnell warm oder darf man direkt zu Release eine leise Konsole erwarten (auf PS3 Slim Niveau z.B.)?
Empfindest du die Slim als leise? Ich finde die Fat angenehmer, die rauscht zwar etwas lauter aber die Slim hat ein nerviges Jaulgeräusch. Die Slim und die Super Slim sind jawohl auch eher Kostenersparnis bei Sony als Dienst am Kunden.
dargo
2013-01-28, 15:20:37
Mach es wie Dargo und hole dir mal einen anständigen Ton Unterbau und du wirst nicht mehr zurück wollen.
Hehe... :D
kann ich so unterschreiben. Ich bin immer noch völlig baff was die Kombination für einen Klang zaubert. Aber vorsicht!!! Das macht süchtig und schwups will man sowas im größeren Format im großen Wohnzimmer auch haben. Da sind dann ruckzuck mehrere Tausend Euronen weg. :freak:
TheCounter
2013-01-28, 17:08:19
Orbis Unveiled:
LIVERPOOL SOC
Custom implementation of AMD Fusion APU Arquitecture (Accelerated Processing Unit)
Provides good performance with low power consumtion
Integrated CPU and GPU
Considerably bigger and more powerful than AMD’s other APUs
http://i.imgur.com/frkqiBA.png
CPU:
Orbis contains eight Jaguar cores at 1.6 Ghz, arranged as two “clusters”
Each cluster contains 4 cores and a shared 2MB L2 cache
256-bit SIMD operations, 128-bit SIMD ALU
SSE up to SSE4, as well as Advanced Vector Extensions (AVX)
One hardware thread per core
Decodes, executes and retires at up to two intructions/cycle
Out of order execution
Per-core dedicated L1-I and L1-D cache (32Kb each)
Two pipes per core yield 12,8 GFlops performance
102.4 GFlops for system
GPU:
GPU is based on AMD’s “R10XX” (Southern Islands) architecture
DirectX 11.1+ feature set
Liverpool is an enhanced version of the architecture
18 Compute Units (CUs)
Hardware balanced at 14 CUs
Shared 512 KB of read/write L2 cache
800 Mhz
1.843 Tflops, 922 GigaOps/s
Dual shader engines
18 texture units
8 Render backends
Memory:
4 GB unified system memory, 176 GB/s
3.5 available to games (estimate)
Storage:
- High speed Blu-ray drive
single layer (25 GB) or dual layer (50 GB) discs
Partial constant angular velocity (PCAV)
Outer half of disc 6x (27 MB/s)
Inner half varies, 3.3x to 6x
- Internal mass storage
One SKU at launch: 500 GB HDD
There may also be a Flash drive SKU in the future
Networking:
1 Gb/s Ethernet, 802.11b/g/n WIFI, and Bluetooth
Peripherals:
Evolved Dualshock controller
Dual Camera
Move controller
Extra:
Audio Processor (ACP)
Video encode and decode (VCE/UVD) units
Display ScanOut Engine (DCE)
Zlib Decompression Hardware
http://www.vgleaks.com/world-exclusive-orbis-unveiled/
Was genau soll denn "Hardware balanced at 14 CUs" bedeuten?
Karümel
2013-01-28, 17:24:19
Das ist jetzt aber auch Spekulatius, oder irgendwas richtig bestätigtes?
Nightspider
2013-01-28, 17:25:08
Sind 50GB BDs auf 5-7 Jahre gesehen nicht etwas wenig?
TheCounter
2013-01-28, 17:27:02
Das ist jetzt aber auch Spekulatius, oder irgendwas richtig bestätigtes?
Nope, alles nur Gerüchte.
Sony soll aber angeblich auf der GDC offizielle Specs rausrücken, MS auf der E3.
Zu den Specs:
Also sinds nur 1.43TF wenn nur 14 CUs aktiviert sind? Und nur 18 Texture Units? Da stimmt doch etwas nicht.
Locuza
2013-01-28, 17:55:23
Alles nur BS trifft es eher ;)
18 Texture-Units bei 18 CUs und 8 ROPs, okay ist klar. ;D
Edit: Oh die Logik kommt langsam, man hat natürlich alle Angaben durch 4 geteilt :rolleyes:
Es sind also 72 TMUs und 32 ROPs.
Aber schon die ganzen komischen Beschreibungen lassen ganz arg an der Seite zweifeln.
00-Schneider
2013-01-28, 17:59:06
Alles nur BS trifft es eher ;)
16 Texture-Units bei 18 CUs und 8 ROPs, okay ist klar. ;D
x4 rechnen laut b3d! 72 TU und 32 ROPS.
TheCounter
2013-01-28, 18:01:28
Also dann:
800MHz
14 CUs
1.43 TFLOPs
72 TU
32 ROPs
Orbis und Durango werden wohl noch viel näher zusammen liegen als PS3/360.
Locuza
2013-01-28, 18:06:06
x4 rechnen laut b3d! 72 TU und 32 ROPS.
Ja, dass habe ich gerade auch bemerkt.
Wie das ganze aber benannt und aufgelistet wird, ist sehr irreführend.
Lightning
2013-01-28, 18:09:56
Also dann:
800MHz
14 CUs
1.43 TFLOPs
72 TU
32 ROPs
Orbis und Durango werden wohl noch viel näher zusammen liegen als PS3/360.
Woher nimmst du die Gewissheit, dass "Hardware balanced at 14 CUs" bedeutet, dass 4 CUs deaktiviert sind?
Ich weiß auch nicht, was sie damit sagen wollen, glaube aber, dass etwas anderes gemeint ist.
dildo4u
2013-01-28, 18:12:04
Die CPU ist relativ schwach möglich das man 4CU als Physik Beschleuniger abstellt,1.8TF halt ich für wahrscheinlich vielleicht ist aber nicht alles für Grafik gedacht.
TheCounter
2013-01-28, 19:09:38
Woher nimmst du die Gewissheit, dass "Hardware balanced at 14 CUs" bedeutet, dass 4 CUs deaktiviert sind?
Ich weiß auch nicht, was sie damit sagen wollen, glaube aber, dass etwas anderes gemeint ist.
Das ist nur Spekulatius meinerseits. Beim Cell der PS3 wurde ja auch eine SPE deaktiviert.
Na ja, in etwa einem Monat haben wir vielleicht schon Gewissheit.
xyleph
2013-01-28, 19:26:37
Vielleicht klärt sich das ich mit dem letzten Eurogamer Artikel:
However, there's a fair amount of "secret sauce" in Orbis and we can disclose details on one of the more interesting additions. Paired up with the eight AMD cores, we find a bespoke GPU-like "Compute" module, designed to ease the burden on certain operations - physics calculations are a good example of traditional CPU work that are often hived off to GPU cores. We're assured that this is bespoke hardware that is not a part of the main graphics pipeline but we remain rather mystified by its standalone inclusion, bearing in mind Compute functions could be run off the main graphics cores and that devs could have the option to utilise that power for additional graphical grunt, if they so chose.
Quelle: http://www.eurogamer.net/articles/df-hardware-orbis-unmasked-what-to-expect-from-next-gen-console
dildo4u
2013-01-28, 19:36:36
Hatte recht,die Einheiten können aber für's Rendering genutzt werden.
"UPDATE: some people is confused about the GPU, here you have more info about it:
Each CU contains dedicated:
- ALU (32 64-bit operations per cycle)
- Texture Unit
- L1 data cache
- Local data share (LDS)
About 14 + 4 balance:
- 4 additional CUs (410 Gflops) “extra” ALU as resource for compute
- Minor boost if used for rendering
Dual Shader Engines:
- 1.6 billion triangles/s, 1.6 billion vertices/s
18 Texture units
- 56 billion bilinear texture reads/s
- Can utilize full memory bandwith
8 Render backends:
- 32 color ops/cycle
- 128 depth ops/cycle
- Can utilize full memory bandwith
pittiplatsch
2013-01-28, 20:47:30
Oh mein Gott,
ist das schlecht, warten wir noch Durango ab, sollte da mehr kommen mal sehn, wenn nur marginal, dann weiss ich wo ich mein Geld investiere. ;D
Und dabei erwarte ich doch nur, das jeder seine Pflicht erfüllt:
http://www.youtube.com/watch?v=veaLI-MpqDo
dildo4u
2013-01-28, 20:52:05
Die werden beide relativ dicht beisammen sein,viel wichtiger ist wer mehr Top Entwickler hat die regelmäßig Games raushauen können.
Karümel
2013-01-28, 21:08:45
Die werden beide relativ dicht beisammen sein,viel wichtiger ist wer mehr Top Entwickler hat die regelmäßig Games raushauen können.
Zufall oder Absprache das beide gleich auf sind?
xyleph
2013-01-28, 21:13:28
Zufall oder Absprache das beide gleich auf sind?
Gleicher Lieferant der Komponenten und ungefähr gleicher angepeilter Preis, so viele Variationen gibt es da nicht.
M4xw0lf
2013-01-28, 21:16:10
Eher technische Notwendigkeit. Annähernd gleiche AMD-Hardware, annähernd gleiches TDP-Budget und so.
tobor
2013-01-29, 08:37:20
Gleicher Lieferant der Komponenten und ungefähr gleicher angepeilter Preis, so viele Variationen gibt es da nicht.
Tatsächlich? Warum baut man dann nicht gleich Off-The-Shelf-Komponenten ein und spart sich sämtlichen Forschungs- und Entwicklungsaufwand?
Kostet schließlich Geld...
][immy
2013-01-29, 09:15:28
Tatsächlich? Warum baut man dann nicht gleich Off-The-Shelf-Komponenten ein und spart sich sämtlichen Forschungs- und Entwicklungsaufwand?
Kostet schließlich Geld...
weil man TDP angaben einhalten muss (aufgrund nicht sehr guter Kühlmöglichkeiten) und dabei versuchen will die Performance zu maximieren. Da kann schon mal das eine oder andere aus der CPU/GPU rausfliegen und was anderes hinzukommen (z.B. der sram oder was es am ende auch immer wird). Aber das sind Kleinigkeiten. Keiner will es sich mehr erlauben (oder kann es sich bei der Komplexität nicht mehr erlauben) eine eigene CPU/GPU zu entwickeln.
Silentbob
2013-01-29, 09:16:56
Tatsächlich? Warum baut man dann nicht gleich Off-The-Shelf-Komponenten ein und spart sich sämtlichen Forschungs- und Entwicklungsaufwand?
Kostet schließlich Geld...
Geld hat SONY bei der Entwicklung von Cell genug verbrannt. Die wollen eine einigermassen potente Hardware raushauen bei der von Anfang an nicht draufgezahlt werden muss.
Skysnake
2013-01-29, 11:21:07
Und bei der die Entwicklung auch einfacher wird als bei Cell
Matrix316
2013-01-29, 12:58:58
[immy;9634239']weil man TDP angaben einhalten muss (aufgrund nicht sehr guter Kühlmöglichkeiten) und dabei versuchen will die Performance zu maximieren. Da kann schon mal das eine oder andere aus der CPU/GPU rausfliegen und was anderes hinzukommen (z.B. der sram oder was es am ende auch immer wird). Aber das sind Kleinigkeiten. Keiner will es sich mehr erlauben (oder kann es sich bei der Komplexität nicht mehr erlauben) eine eigene CPU/GPU zu entwickeln.
Und warum setzen sie dann nicht auf Intel und nvidia Hardware, wo sie viel mehr Performance pro Watt bekommen? Dass AMD die letzten Jahre schon immer mehr Strom verpulvert sollte sich doch rumgesprochen haben...
robbitop
2013-01-29, 13:12:47
Und warum setzen sie dann nicht auf Intel und nvidia Hardware, wo sie viel mehr Performance pro Watt bekommen? Dass AMD die letzten Jahre schon immer mehr Strom verpulvert sollte sich doch rumgesprochen haben...
Die Frage kann nicht ernst gemeint sein oder? ;)
Das wurde doch nun über das vergangene Jahrzehnt so oft behandelt...
fondness
2013-01-29, 13:14:31
Und warum setzen sie dann nicht auf Intel und nvidia Hardware, wo sie viel mehr Performance pro Watt bekommen? Dass AMD die letzten Jahre schon immer mehr Strom verpulvert sollte sich doch rumgesprochen haben...
Bei dir hat es sich offenbar noch nicht herum gesprochen. Bei den GPus war AMD nie schlecht was Perf/Watt betrifft und bei den CPUs sind die verbauten Jaguar-Kerne auch alles andere als schlecht was Perf/Watt betrifft.
Die Frage kann nicht ernst gemeint sein oder? ;)
Das wurde doch nun über das vergangene Jahrzehnt so oft behandelt...
Man wird auch so die fertigen Chips von AMD kaufen müssen und nicht das Design lizensieren. Das könnte man sicher prinzipiell auch von Intel haben, nur gibt es halt da keine brauchbare GPU.
robbitop
2013-01-29, 13:21:50
Man wird auch so die fertigen Chips von AMD kaufen müssen und nicht das Design lizensieren. Das könnte man sicher prinzipiell auch von Intel haben, nur gibt es halt da keine brauchbare GPU.
Meinst du wegen dem x86 Lizenzdeal zwischen AMD und Intel?
AMD fertigt ja letzten Endes sowieso alles extern. MS/Sony werden schon Konditionen gestrickt haben, dass es quasi so ist, wie zur X360 Zeit.
Ob dann AMD nun auf der Rechnung steht oder nicht, ist die andere Frage.
Ich wäre mir auch gar nicht so sicher, ob AMD das nicht irgendwie doch lizensieren darf. Wir kennen da ja gar keine Details.
Intel würde soetwas nie für wenig Geld machen und mit NV hatte MS schlechte Erfahrungen.
Rein technisch gesehen wäre eine Intel CPU natürlich unschlagbar gut.
fondness
2013-01-29, 13:25:24
Meinst du wegen dem x86 Lizenzdeal zwischen AMD und Intel?
AMD fertigt ja letzten Endes sowieso alles extern. MS/Sony werden schon Konditionen gestrickt haben, dass es quasi so ist, wie zur X360 Zeit.
Ob dann AMD nun auf der Rechnung steht oder nicht, ist die andere Frage.
Ich wäre mir auch gar nicht so sicher, ob AMD das nicht irgendwie doch lizensieren darf. Wir kennen da ja gar keine Details.
Intel würde soetwas nie für wenig Geld machen und mit NV hatte MS schlechte Erfahrungen.
Rein technisch gesehen wäre eine Intel CPU natürlich unschlagbar gut.
AMDs CEO hat bei den letzten Quartalszahlen gesagt das die Konsolen Chips im Q4/2013 bereits 20% von AMDs Umsatz ausmachen werden. Mit Lizenzen erreicht man diese Größenordungen wohl kaum. Das AMD keine x86-Chips lizensieren darf ist schon länger bekannt. Das ist geisteiges Eigentum von Intel und dort gibt es naturgemäß keine Gnade.
Rein technisch gesehen wäre eine Intel CPU natürlich unschlagbar gut.
Klar, aber man braucht einen SoC wenn man in Zukunft bestehen will. Der Vorteil im selben RAM und Cache arbeiten zu können, ohne ständig über den Flschenhals PCIe-Bus Datn hin und her schaufeln zu müssen ist einfach unschlagbar.
robbitop
2013-01-29, 13:35:31
2012? :|
20 % Das wären ja ein paar hundert Mio US$. Das spricht für den direkten Verkauf. Wobei es - wie gesagt - egal ist, wenn die Konditionen stimmen. AMD reicht die Fertigungskosten weiter und packt einen Aufschlag für's Design drauf. Und der wird, um so einen Deal zu gewinnen, nicht all zu hoch sein.
Einen Deal mit geringen Gewinnspannen wäre Intel wohl nicht bereit einzugehen.
fondness
2013-01-29, 13:36:06
Natürlich 2013. Das sagt natürlich noch nichts über die Margen aus, keine Frage.
Matrix316
2013-01-29, 14:41:19
[...]
Klar, aber man braucht einen SoC wenn man in Zukunft bestehen will. Der Vorteil im selben RAM und Cache arbeiten zu können, ohne ständig über den Flschenhals PCIe-Bus Datn hin und her schaufeln zu müssen ist einfach unschlagbar.
Ähhh eine GTX660 und Core i3-3 Kombo schlägt doch jeden AMD SoC um längen. Natürlich müsste man die Chips optimalerweise alle auf ein spezielles PCB kleben, aber so wurden früher mal Konsolen hergestellt, meine ich. ;)
mironicus
2013-01-29, 14:45:54
Es wäre interessant wenn man die neuen Konsolen als PC-Ersatz benutzen könnte, genug Power und Speicher haben sie ja.
fondness
2013-01-29, 14:56:58
Ähhh eine GTX660 und Core i3-3 Kombo schlägt doch jeden AMD SoC um längen. Natürlich müsste man die Chips optimalerweise alle auf ein spezielles PCB kleben, aber so wurden früher mal Konsolen hergestellt, meine ich. ;)
Warte mal Software und Hardware ab die shared RAM/Caches auch verwendet und dann redne wir weiter. ;)
Ailuros
2013-01-29, 15:07:26
Warte mal Software und Hardware ab die shared RAM/Caches auch verwendet und dann redne wir weiter. ;)
Bis es soweit kommt, weiss der Geier wie die zukuenftigen PC/notebook SoCs aussehen werden.
tobor
2013-01-29, 15:15:56
Was hätte eigentlich dagegen gesprochen, einen Soc mit Ibm-Cpus und einer Amd-Gpu zu entwickeln? Hat Ibm nichts,was mindestens genauso gut ein Jaguar Prozessor ist?(Preis/Leistung)
Ailuros
2013-01-29, 15:28:28
Was hätte eigentlich dagegen gesprochen, einen Soc mit Ibm-Cpus und einer Amd-Gpu zu entwickeln? Hat Ibm nichts,was mindestens genauso gut ein Jaguar Prozessor ist?(Preis/Leistung)
Genau der gleiche Grund warum alle anderen konkurrierenden Loesungen durch den Evaluierungs-Prozess abgelehnt wurden: Zeitmangel.
Microsoft und Sony haben zu viel Zeit "verschwendet" bei der ersten Runde der IP Evaluierung. Als man damals alle Plaene ueber den Haufen warf und sich beide aus verstaendlichen Gruenden SoCs haben wollten, hatte man einfach nicht mehr genug Zeit nochmal ein paar Jahre zu warten bis ein jeglicher SoC von Grund auf entwickelt wird. Es ist eben leider nicht so dass man innerhalb von Monaten einen so komplizierten SoC (fuer die heutigen Verhaeltnisse) nur so aus dem Aermel ziehen kann.
robbitop
2013-01-29, 15:40:19
IMO haben beide auch keine schlechte Wahl getroffen. Ein paar CUs mehr und etwas mehr eDRAM wären vieleicht noch wünschenswert gewesen.
Wenn die Entwickler beim 2. Spiel die HW genug kennen und auch 8 Kerne ausnutzen können, ist das sicherlich nicht die schlechteste Wahl.
Ich bin ein wenig enttäuscht, dass kein voller Pitcairn drin war. Insgesamt sind die Konsolen aber auf einem besseren Niveau als wir es noch vor ~1 Jahr erwartet haben.
TheCounter
2013-01-29, 15:47:15
IMO haben beide auch keine schlechte Wahl getroffen. Ein paar CUs mehr und etwas mehr eDRAM wären vieleicht noch wünschenswert gewesen.
Hier ist die Frage wieso MS 32MB eSRAM verwendet, statt für das gleiche Geld und auf die gleiche Fläche >100MB eDRAM zu packen.
Sicher hat eSRAM geringere Latenzen, aber dafür ja nur 32MB.
robbitop
2013-01-29, 15:50:55
Das ist doch nur Marketing Speech. Mit ES-RAM meinen sie embedded 1T-SRAM. 1T-SRAM wird von vielen Halbleiterherstellern auch eDRAM genannt.
Es wird ganz sicher nicht 6T oder 8T SRAM (also klassischer Cache SRAM) verwendet.
Ailuros
2013-01-29, 16:00:35
IMO haben beide auch keine schlechte Wahl getroffen. Ein paar CUs mehr und etwas mehr eDRAM wären vieleicht noch wünschenswert gewesen.
Wenn die Entwickler beim 2. Spiel die HW genug kennen und auch 8 Kerne ausnutzen können, ist das sicherlich nicht die schlechteste Wahl.
Ich bin ein wenig enttäuscht, dass kein voller Pitcairn drin war. Insgesamt sind die Konsolen aber auf einem besseren Niveau als wir es noch vor ~1 Jahr erwartet haben.
Ist doch im groesserem Bild total wurscht ob das Resultat jetzt bei N liegt oder ein relativ kleines Prozentual besser. Weder Microsoft noch SONY hatten den Willen oder eigentlichen Grund Milliarden in die Entwicklung einer jeglichen zukuenftigen Konsole zu schuetten, eben weil der generelle Ausblick in die weitere Zukunft nicht so vielsprechend aussieht wie z.B. vor PS2 Zeiten.
Wenn man etwas schnell und relativ billig haben will ist ein bisschen besser oder ein bisschen schlechter scheissegal.
robbitop
2013-01-29, 16:01:52
So viel mehr hätte man bei gleichem TDP Budget eh nicht rausholen können. Performance pro Watt und Performance pro Fläche ist bei Jaguar und GCN ziemlich gut. Eine individuelle Sonderentwicklung hätte aus meiner Sicht kaum etwas gebracht.
mboeller
2013-01-29, 16:11:41
Was hätte eigentlich dagegen gesprochen, einen Soc mit Ibm-Cpus und einer Amd-Gpu zu entwickeln? Hat Ibm nichts,was mindestens genauso gut ein Jaguar Prozessor ist?(Preis/Leistung)
Ich glaube es geht hier vor allem um den Prozess.
Momentan steht anscheinend nur 28nm Bulk zur beides, CPU und GPU Verfügung. IBM hat zwar 32nm, aber sehr teuer und die GPU müsste erst portiert werden. GF ist mit Gate-first 28nm anscheinend auch noch nicht ganz soweit. Also bleibt wahrscheinlich nur TSMC übrig.
AMD hat zB. bei dem APU's ja lernen müssen, das man eine 40nm TSMC GPU nicht so einfach auf 32nm GF-SOI umstricken kann.
Nur der 28nm HP-Prozess bei TSMC "kann beides"; CPU und GPU. Und dadurch bleibt halt dann nur noch der Jaguar-Core übrig ohne das man vielleicht in die gleiche Falle tappt wie AMD mit den ersten APU's und dann die Kosten explodieren und sich der Termin für die Markteinführung auf 2014/2015 verschiebt.
Ja und dann geht es halt auch um die Kosten. Ein einzelnes SoC ist langfristig billiger als 2 einzelne Chips für CPU und GPU.
TheCounter
2013-01-29, 16:12:02
Das ist doch nur Marketing Speech.
Dann frage ich mich trotzdem warum nur 32MB und nicht gleich 64MB? So viel teurer dürfte das doch nicht sein oder?
mboeller
2013-01-29, 16:13:35
Das ist doch nur Marketing Speech. Mit ES-RAM meinen sie embedded 1T-SRAM. 1T-SRAM wird von vielen Halbleiterherstellern auch eDRAM genannt.
Es wird ganz sicher nicht 6T oder 8T SRAM (also klassischer Cache SRAM) verwendet.
Kann TSMC eDRAM? Hab keine Ahnung und jetzt auch nicht geschaut.
edit:
http://www.tsmc.com/english/dedicatedFoundry/technology/hdm.htm
aber anscheinend nicht bei 28nm ???
edit2:
http://www.tsmc.com/english/dedicatedFoundry/technology/28nm.htm
Ja, schaut so aus, als ob nur SRAM zur Verfügung steht.
Ailuros
2013-01-29, 16:15:14
So viel mehr hätte man bei gleichem TDP Budget eh nicht rausholen können. Performance pro Watt und Performance pro Fläche ist bei Jaguar und GCN ziemlich gut.
Ich koennte mir locker vorstellen dass eine angepasste Haswell basierende Loesung in einigen Stellen besser gepunktet haette; nur haetten dann die Hersteller womoeglich einen ziemlich grossen perf/$ Kopfschmerz mit Intel.
Eine individuelle Sonderentwicklung hätte aus meiner Sicht kaum etwas gebracht.
Wenn ich es falsch interpretieren moechte, bin ich mir nicht so sicher dass Sony gerne hoeren wuerde dass ihre gesamte Konsolen-hw Entwicklung von Anfang an fuer die Katz war :P
del_4901
2013-01-29, 16:15:59
Dann frage ich mich trotzdem warum nur 32MB und nicht gleich 64MB? So viel teurer dürfte das doch nicht sein oder?Der Preis und die TDP steigen nicht linear mit der Chipflaeche, ich denke das wird von vielen ueberschaetzt. Und 32MB ist eigentlich schon ganz ordentlich selbst wenn ich mir mehr erhofft hatte.
mboeller
2013-01-29, 16:27:55
Der Preis und die TDP steigen nicht linear mit der Chipflaeche, ich denke das wird von vielen ueberschaetzt. Und 32MB ist eigentlich schon ganz ordentlich selbst wenn ich mir mehr erhofft hatte.
reichen die 32MB für deferred Rendering Techniken?
Auf Beyond3D gibt es infos, das man bei deferred Rendering mit 28byte pro pixel rechnen muss. Bei 1080p wären das 56MB. Oder ist es "einfach" wieder Tiling zu benutzen, so wie bei der X360?
robbitop
2013-01-29, 16:32:56
Ich koennte mir locker vorstellen dass eine angepasste Haswell basierende Loesung in einigen Stellen besser gepunktet haette; nur haetten dann die Hersteller womoeglich einen ziemlich grossen perf/$ Kopfschmerz mit Intel.
Intel natürlich ausgeklammert.
Wenn ich es falsch interpretieren moechte, bin ich mir nicht so sicher dass Sony gerne hoeren wuerde dass ihre gesamte Konsolen-hw Entwicklung von Anfang an fuer die Katz war :P
Die Wahrheit tut manchmal weh... :D
Sony hat vieles sehr gutem Kontent und phantastisch guten Studios zu verdanken.
fondness
2013-01-29, 16:48:32
Bis es soweit kommt, weiss der Geier wie die zukuenftigen PC/notebook SoCs aussehen werden.
Eine PS4 oder Xbox720 wären dazu in der Lage dank GCN-GPU.
Ailuros
2013-01-29, 16:57:01
Intel natürlich ausgeklammert.
ROFL :D
Die Wahrheit tut manchmal weh... :D
Sony hat vieles sehr gutem Kontent und phantastisch guten Studios zu verdanken.
Die eingebohrenen Umstaendlichkeiten fuer die eigentliche Spiel-Entwicklung zur Seite von Sony's Konsolen-hw waren es fuer deren Zeit alles andere als Banausen. Und ja wenn Sony die Entwicklungskosten haette ignorieren koennen fuer diese Konsolen Generation, waere ihr originaler Plan um einiges besser gewesen.
Unter den heutigen Bedingungen haben Microsoft und Sony tatsaechlich die besten moeglichen Optionen genommen.
Eine PS4 oder Xbox720 wären dazu in der Lage dank GCN-GPU.
Du hast wohl "zukuenftige PC/notebook SoCs uebersehen". Intel's zukuenftige relevante SoCs werden weniger das Nachsehen haben wenn es zur GPU Seite kommt und die CPU Seite muss man wohl nicht wirklich analysieren oder? Aber Du darfst Dir gerne erhoffen dass das Zeug ueber etliche Jahre unangefochten bleiben wird wenn es zu zukuenftigen PC/notebooks kommt. Selbst AMD's eigene SoCs werden zu dem Zeitpunkt offensichtlich noch besser sein.
robbitop
2013-01-29, 16:57:01
Sony hat in der PS2 mit dem größten Aufwand trotzdem die schwächste Konsole gebaut. Das Ding war einfach krank und nur mit extremen Optimierungen so halbwegs auf ein ähnliches Grafiklevel wie GC oder Xbox zu bringen. IMO haben die es immer zu komplex gewollt.
Ich kann mir gut vorstellen, dass mit den ursprünglichen Plänen mehr Leistung drin gewesen sein könnte. Dann das aber auch auf Kosten von TDP/Chipfläche/Preis.
del_4901
2013-01-29, 17:09:32
reichen die 32MB für deferred Rendering Techniken?
Auf Beyond3D gibt es infos, das man bei deferred Rendering mit 28byte pro pixel rechnen muss. Bei 1080p wären das 56MB. Oder ist es "einfach" wieder Tiling zu benutzen, so wie bei der X360? Zum einen kann man Tilling betreiben, zum anderen haben moderne GPUs Z- und Colorcompression. Und dann ist noch die Frage ob man den G-Buffer nicht einfach in den Hauptspeicher legt und nur den bandbreitenintensiven Z-Buffer im eDRAM vorhaelt.
Ailuros
2013-01-29, 17:09:34
Sony hat in der PS2 mit dem größten Aufwand trotzdem die schwächste Konsole gebaut. Das Ding war einfach krank und nur mit extremen Optimierungen so halbwegs auf ein ähnliches Grafiklevel wie GC oder Xbox zu bringen. IMO haben die es immer zu komplex gewollt.
Falsche Design-Entscheidungen sind ein anderes Kapitel als hw Schwaeche bzw. Staerke. Mir hat das Ding zwar stets selber angekotzt, aber weiss der Geier wie lange es in Entwicklung lag um Anfang 2000 auf Regale zu kommen und zu den Zeiten war GPU acceleration eben nicht so etabliert wie heute und Sony's Direktion bestand auch nur aus Menschen die Fehler machen. Wenn ich aber heutzutage eine aehnliche Logik sehe wo die GPU als nebenwichtige Dekoration angesehen wird, bin ich natuerlich der Depp des Dorfs.
Sonst kamen sowohl XBox als auch Gamecube um ein Jahr spaeter an.
Ich kann mir gut vorstellen, dass mit den ursprünglichen Plänen mehr Leistung drin gewesen sein könnte. Dann das aber auch auf Kosten von TDP/Chipfläche/Preis.
Um die Kosten geht es eben gerade hier. Ich sagte ja nichts anderes als dass die Entwicklungskosten der wichtigste Faktor fuer Microsoft und Sony's Entscheidungen diesmal waren.
Locuza
2013-01-29, 18:46:15
Ein PR-Geschwafel von Sony, dass man immer der Beste sein will und die PS4 vielleicht die erste Konsole sein werden könnte, wo man 1Mrd. Entwicklungskosten reinpumpt?
Oder war das die Vorstellung bevor man selber 9 Mrd. Dollar Schulden hatte? :redface:
http://mandetech.com/2012/01/10/sony-masaaki-tsuruta-interview/
Zum einen kann man Tilling betreiben, zum anderen haben moderne GPUs Z- und Colorcompression.
Das ist Bandbreiten-Kompression. Im VRAM brauchst du dadurch sogar mehr Speicher.
Ailuros
2013-01-29, 19:45:52
Das ist Bandbreiten-Kompression. Im VRAM brauchst du dadurch sogar mehr Speicher.
Wie oft wird tiling ueberhaupt auf der XBox360 verwendet? Ich kann mir schwer vorstellen dass Entwickler es irgendwie toll empfanden Geometrie konstant wiederzupuffern.
TheCounter
2013-01-29, 19:48:46
Im NeoGAF hat jemand ein Bild gemalt:
http://i.imgur.com/PsEAfdF.png
Wenn die 4 zusätzlichen CUs also in der CPU sitzen, würden diese für die Grafikberechnungen doch keine 410 GFLOPs leisten oder? In den VGLeaks Dokument steht ja "Minor boost if used for rendering".
Oder kann sich die CPU einfach 4 von den 18 CUs abzweigen? Wenn ja, was würde Devs daran hindern einfach mehr abzuzweigen wenn benötigt?
Nakai
2013-01-29, 19:54:42
Naja eine CU hat 64SPs, also 4 16erSIMDs. Bei 4 CUs extra sind das 256SPs also 512FLOPs pro Takt. Bei 800Mhz kommt man auf etwa 409GFLOPs. Taugt!;)
€: Wenn das wirklich GCN CUs sind, dann sind diese wohl schon etwas stärker modifiziert. Auf welchen globalen Cache greifen sie zu? Sind die TMUs noch enthalten? Wie sieht die Speicheranbindung aus?
Locuza
2013-01-29, 20:03:18
Gipsel meinte mal, dass man dank der ACEs (Asynchron Compute Engine) eine beliebige Anzahl von CUs für das Computing reservieren kann und unabhängig von der Render-Pipeline wären.
Diese 14+4 Konstellation wäre somit nichts besonderes.
del_4901
2013-01-29, 20:05:34
Das ist Bandbreiten-Kompression. Im VRAM brauchst du dadurch sogar mehr Speicher.
Das sind doch ganz normale Speicherchips ohne spezielle extra Logik?
TheCounter
2013-01-29, 22:09:44
Diese 14+4 Konstellation wäre somit nichts besonderes.
Warum wird dies dann überhaupt angemerkt? Wieso nicht gleich "All CUs can be used for gp by the cpu"?
Das sind doch ganz normale Speicherchips ohne spezielle extra Logik?
Was hat das damit zu tun? Color- und Z-Compression sorgen dafür, dass du z.B. nur ein Color-Sample schreibst (im Dreieck) und ein Bit setzt, dass alle vier Samples diese gleiche Farbe haben. Bei Z speichert man den Gradienten o.Ä.
Den Speicher für alle vier musst du aber trotzdem für das ganze Bild vorhalten.
del_4901
2013-01-29, 23:04:09
Was hat das damit zu tun? Color- und Z-Compression sorgen dafür, dass du z.B. nur ein Color-Sample schreibst (im Dreieck) und ein Bit setzt, dass alle vier Samples diese gleiche Farbe haben.
Den Speicher für alle vier musst du aber trotzdem für das ganze Bild vorhalten.Ja stimmt ich war nicht ganz auf der Hoehe als ich das geschrieben habe. Aber ist es wirklich mehr Speicher? Oder genau gleich viel?
Es ist ein bisschen mehr Speicher, weil du z.B. die Meta-Informationen vorhalten musst ob Tiles komprimiert sind oder nicht.
Demirug
2013-01-29, 23:13:22
Ja stimmt ich war nicht ganz auf der Hoehe als ich das geschrieben habe. Aber ist es wirklich mehr Speicher? Oder genau gleich viel?
Da im Worstcase keine Kompression möglich ist aber trotzdem die zusätzlichen Verwaltungsinformationen benötigt werden ist es immer mehr. Allerdings halten manche Implementierungen diese Verwaltungsdaten im Chip selbst.
Selbst wenn du es temporär im Chip vorhalten kannst, musst du es trotzdem bei Render-Target-Switches manchmal wieder in den VRAM rausschreiben.
Können schließlich beliebig viele sein.
del_4901
2013-01-29, 23:19:54
Es ist ein bisschen mehr Speicher, weil du z.B. die Meta-Informationen vorhalten musst ob Tiles komprimiert sind oder nicht.Ja stimmt, irgendwie hab ich heute nen schlechten Tag erwischt. ;)
Selbst wenn du es temporär im Chip vorhalten kannst, musst du es trotzdem bei Render-Target-Switches manchmal wieder in den VRAM rausschreiben.
Können schließlich beliebig viele sein.
Dann kann man bei 1080p wirklich nur Z im eDRAM vorhalten, wenn man einen (fetten) GBuffer hat und kein forward+ oder Light Prepass verwendet.
TheCounter
2013-01-30, 01:02:29
Zwar keine direkten Infos (aegies hält sich leider sehr bedeckt), aber immerhin:
That's your prerogative. I've been told by multiple sources I trust that there's still a bit of Orbis info yet to be determined, and quite a bit of Durango info that hasn't surfaced. Durango's CPU in particular is appreciably different than Orbis.
I've talked a little bit about the memory move engines and surface compression. I've specified that the audio hardware in durango is some crazy shit, not just an encoder. I've been told a number of things I've been explicitly asked not to share, and I don't want to get anybody fired.
http://www.neogaf.com/forum/showthread.php?t=510373&page=67
Die Durango CPU soll sich also deutlich von der Orbis CPU unterscheiden. Er meint auch, das auf der Xbox 360 die CPU zwischen 1/6 bis zu 1/3 ihrer Leistung nur für Soundprocessing benötigte.
Iruwen
2013-01-30, 02:00:39
Wäre ja sinnvoll investiert für die 96,738% der Leute die ihre schrammeligen Flachbildfernseherlautsprecher verwenden...
TheCounter
2013-01-30, 02:03:25
Wäre ja sinnvoll investiert für die 96,738% der Leute die ihre schrammeligen Flachbildfernseherlautsprecher verwenden...
Wenn jeder so denken würde, dann gäbe es heute kein Dolby Digital etc. ;)
Der Sound ist mindestens so wichtig wie das Bild. IMHO sogar eher 60/40.
tobor
2013-01-30, 08:18:46
Die Durango CPU soll sich also deutlich von der Orbis CPU unterscheiden. Er meint auch, das auf der Xbox 360 die CPU zwischen 1/6 bis zu 1/3 ihrer Leistung nur für Soundprocessing benötigte.
??
Wie genau kommt den das zustande?(reines Verarbeiten von Tondateien kann es doch nicht sein)
TheCounter
2013-01-30, 11:02:55
Diese Angaben hat er von Entwicklern. Aber wir haben in unseren PCs ja auch nicht umsonst eine Soundkarte.
Die Durango CPU soll sich also deutlich von der Orbis CPU unterscheiden. Er meint auch, das auf der Xbox 360 die CPU zwischen 1/6 bis zu 1/3 ihrer Leistung nur für Soundprocessing benötigte.
Ich kann das definitiv nicht bestätigen.
Rancor
2013-01-30, 11:22:33
Ich kann das definitiv nicht bestätigen.
Hehe :)
Stell ich mir amüsant vor. Alle sind am rätselraten was denn nun bei den neuen Konsolen Sache ist und du weisst es schon :)
Bereitet bestimmt das ein oder andere Schmunzeln ^^
del_4901
2013-01-30, 11:24:32
Hehe :)
Stell ich mir amüsant vor. Alle sind am rätselraten was denn nun bei den neuen Konsolen Sache ist und du weisst es schon :)
Bereitet bestimmt das ein oder andere Schmunzeln ^^
Wohl eher :facepalm: ... auf dauer bekommt man davon ne flache Stirn. :ugly:
Gipsel
2013-01-30, 11:24:51
Die Durango CPU soll sich also deutlich von der Orbis CPU unterscheiden. Er meint auch, das auf der Xbox 360 die CPU zwischen 1/6 bis zu 1/3 ihrer Leistung nur für Soundprocessing benötigte.Ich kann das definitiv nicht bestätigen.Den ersten und/oder den zweiten Satz? ;)
Gipsel
2013-01-30, 11:27:06
Wohl eher :facepalm: ... auf dauer bekommt man davon ne flache Stirn. :ugly:
Die bekommt man bei einigen "Gerüchten" auch schon ohne genau zu wissen, was denn nun drin stecken wird. Einige Sachen sind schlicht zu abstrus. :freak:
robbitop
2013-01-30, 11:27:41
Wohl eher den 2. Satz. ;)
del_4901
2013-01-30, 11:28:48
Den ersten und/oder den zweiten Satz? ;)
Aegies hat es auch nur vom hoehren sagen, und Counter hats von Aegies wer weis wieviel Leute da noch in der Kette waren und wieviel von der urspruenglichen Nachricht am Ende noch uebrig blieb.
Ailuros
2013-01-30, 11:28:51
Wohl eher den 2. Satz. ;)
Finger weg von seiner PM box ROFL :biggrin:
TheCounter
2013-01-30, 11:48:02
Zumindest wissen wir nun den Namen, der ist nämlich "ausversehen" offiziell bestätigt wurden, in dem die neue Website hochgeladen wurde:
http://i.imgur.com/YHsQ84j.png
Geht um den Header, links oben.
EDIT:
Laut dem GAF (http://www.neogaf.com/forum/showpost.php?p=47075066&postcount=510) könnte es aber auch ein einfacher Fake sein :ugly:
Oh man, das wird ja langsam lächerlich :biggrin:
robbitop
2013-01-30, 11:52:32
"the new Xbox"? Na ich weiß ja nicht....
Wohl eher :facepalm: ... auf dauer bekommt man davon ne flache Stirn. :ugly:
Du gehst mit der falschen Einstellung da dran. Sieh es als soziales Experiment. Man lernt verdammt viel über einige Personen hier bei der Sache.
"the new Xbox"? Na ich weiß ja nicht....
Das war doch klar. Die werden bestimmt nicht Apples Namensgebung übernehmen.
Eine offensichtliche Möglichkeit nach Windows 8 und Windows Phone 8 wäre XBox 8.
"eight is beautiful" war schon bei Sony eine ausreichende Begründung. :D
Iruwen
2013-01-30, 13:15:31
Wenn jeder so denken würde, dann gäbe es heute kein Dolby Digital etc. ;)
Der Sound ist mindestens so wichtig wie das Bild. IMHO sogar eher 60/40.
Ich finde Sound auch wichtig, hab auch 'ne ordentliche Anlage zuhause. Aber bei voraussichtlich eh schon nicht überragender Leistung noch soviel zu opfern wäre unverhältnismäßig.
rm-zocker
2013-01-30, 13:33:39
mhhh kann ich nicht von mir sagen.ich habe gerne neue technik spiel sachen hier, aber der sound ist mir eigentlich wurscht. mir reichen die normalen pc boxen 2.1 (mittlerweile 12 jahre alt ;)) und die lautsprecher an meinem lcd tv vollkommen aus.
Fireblade
2013-01-30, 14:13:52
Das Problem beim Sound ist doch eher, dass viele aufgrund von Mietwohnungen den im Gegensatz zu gutem Bild kaum nutzen können. Ich hab auch ne tolle Anlage zu Hause .. nutzen kann ich sie aber kaum, da sonst die Nachbarn vor der Tür stehen.
Echter binauraler (schreibt man das so?) 3D-Sound wäre aber ein nettes Feature für Kopfhörer. Vielleicht wird der Chip ja dafür genutzt.
TheCounter
2013-01-30, 14:58:51
Aber bei voraussichtlich eh schon nicht überragender Leistung noch soviel zu opfern wäre unverhältnismäßig.
Opfern? Die neue Xbox hat doch einen DSP der sich um den Sound und das drumherum kümmert.
mhhh kann ich nicht von mir sagen.ich habe gerne neue technik spiel sachen hier, aber der sound ist mir eigentlich wurscht. mir reichen die normalen pc boxen 2.1 (mittlerweile 12 jahre alt ;)) und die lautsprecher an meinem lcd tv vollkommen aus.
Dann hast du noch nie Dead Space 1 oder God of War 3 auf einer richtigen Anlage gespielt.
Oder wärst du im Kino auch mit schlechtem 2.1 Sound zufrieden?
Iruwen
2013-01-30, 15:22:51
Opfern? Die neue Xbox hat doch einen DSP der sich um den Sound und das drumherum kümmert.
Ich hab mich verlesen merk ich grad :freak: Ich meinte gelesen zu haben dass die neue Konsole soviel Leistung für den Sound benötigt. Mea culpa.
Das Problem beim Sound ist doch eher, dass viele aufgrund von Mietwohnungen den im Gegensatz zu gutem Bild kaum nutzen können. Ich hab auch ne tolle Anlage zu Hause .. nutzen kann ich sie aber kaum, da sonst die Nachbarn vor der Tür stehen.
Guter Ton hat doch nicht nur was mit Lautstärke zu tun. Die gute Abbildungsleistung bleibt ja auch bei niedriger Lautstärke. Zumindest wenn es sich nicht um ein Brüllwürfelset handelt, das nur durch Lautstärke und wummernden Bass glänzt.
Nightspider
2013-01-30, 16:05:35
Bessere Soundqualität wäre imo auch wichtig und ein wichtiger Fortschritt.
Klar brauchen Entwickler dafür auch mehr Leistung aber das meiste macht noch aus, wie der Sound in ein Spiel integriert wird. Gerade ob der Sound an die Räumlichkeiten angepasst wird oder zB. einen Tunnel wie in Metro.
In den meisten Spielen fehlt der angepasst Hall-Effekt - leider.
THEaaron
2013-01-30, 16:24:05
Vor allem im sonst brachial klingenden Battlefield 3 fehlen SEHR SEHR viele dieser meiner Meinung nach wichtigen Effekte. Man muss sich nur mal die Close Quarters Maps geben, bei denen es unmöglich ist zu unterscheiden ob die Schüsse von der gleichen Etage kommen oder drüber/drunter.
Sowas finde ich überaus schade, da ich mehr Wert auf guten Sound lege als auf ein gutes Bild.
Nightspider
2013-01-30, 16:32:42
Da muss ich dir recht geben. Beim Sound hat DICE diesmal echt versagt.
Und dabei hatten sie vorher großspurig Verbesserungen im Gegensatz zu BC2 angekündigt.
TheCounter
2013-01-30, 22:57:33
Eines der größten Probleme der letzten Gen war die Kompression des Sounds. Teilweise wurde zwar keine Mühe und Kosten gescheut einen guten Sound aufzunehmen. Aber dieser wurde dann dermaßen kaputt komprimiert das man sich am liebsten die Ohren zuhalten möchte.
Bestes Beispiel ist hier Halo 4. Die haben sich so viel Mühe gegeben, aber der Sound ist einfach nur extrem komprimiert und klingt richtig "scheisse" :/
Hoffe das sich das nun bessert, da auch die neue Xbox ein Bluray Laufwerk hat.
robbitop
2013-01-31, 08:24:41
Zumindest die Audioverbindung zwischen Xbox 360 und dem AV Receiver ist keinesfalls kaputtkomprimiert. Das ist Dolby Digital mit voller Bandbreite AFAIK.
DarkSoldier
2013-01-31, 14:14:45
Nur die Samples sind leider teils von unterirdischer Qualität ...
robbitop
2013-01-31, 15:31:18
Um Platz auf der DVD zu sparen? Lächerlich soetwas...
TheCounter
2013-01-31, 20:49:38
Zumindest die Audioverbindung zwischen Xbox 360 und dem AV Receiver ist keinesfalls kaputtkomprimiert. Das ist Dolby Digital mit voller Bandbreite AFAIK.
Ja das meinte ich auch nicht. Die Soundsfiles selber sind kaputt komprimiert. In Halo 4 hab ich mich teilweise gefragt ob das jetzt 64kbit MP3 ist ;D :ugly:
Hier ist es sehr gut zu hören (einfach mal 2 Minuten zuhören; vor allem bei der Musik hört man es gut):
https://www.youtube.com/watch?feature=player_detailpage&v=VpUmxFdwl9A#t=220s
Das liegt nicht am Youtube Video sondern hört sich exakt so an wie im Spiel. Ein Paradebeispiel für sehr guten Sound ist dagegen Dead Space und God of War 3.
Ich denke mal bei der 360 liegts auch am Speichermedium. Eine DVD alleine ist einfach zu wenig.
Nightspider
2013-01-31, 21:01:37
Klingt zwar so schlimm wie ich mir das erst nach deinen Aussagen vorgestellt habe es klingt wirklich etwas flach und dynamiklos.
Hab jetzt aber auch nur 2min reingeschaut.
Sehr wahrscheinlich das es an der geringen Kapazität der DVD liegt.
Ich frage mich ja auch ob 50GB für weitere 5-8 Jahre reichen. Eine DVD ja schließlich 2005 auch noch bei weitem für jedes Game gereicht.
ChaosTM
2013-01-31, 21:26:32
Die neue Generation sollte eigentlich 100GB BD-XL Medien unterstützen.
Das reicht dann bis 2020.
TheCounter
2013-01-31, 21:45:23
Die neue Generation sollte eigentlich 100GB BD-XL Medien unterstützen.
Glaube ich eher nicht. Gibts überhaupt schon einen BD-XL Player so zu kaufen?
Zudem sind die 100GB Rohlinge noch extrem teuer.
Wahrscheinlicher ist hier, das 2x 50GB BDs genutzt werden.
krötenfresse
2013-01-31, 23:26:05
Bestes Beispiel ist hier Halo 4. Die haben sich so viel Mühe gegeben, aber der Sound ist einfach nur extrem komprimiert und klingt richtig "scheisse" :/
Hoffe das sich das nun bessert, da auch die neue Xbox ein Bluray Laufwerk hat.
kann man da nirgendswo einen sound-patch runterladen und auf HDD installieren?
ChaosTM
2013-01-31, 23:42:27
Im Computerbereich gibt es momentan nur den Pioneer BDR-207EBK.
Der kann TL(100GB) und QL(128GB) Scheiben lesen und beschreiben und kostet ungefähr dasselbe, wie die Standard-Modelle.
Reine Leselaufwerke sollten also auch nicht mehr kosten, als die "alten" Modelle.
Von daher spricht also nichts dagegen und man hätte Platz-mäßig deutlich mehr Luft nach oben.
Und Rohlingskosten sind irrelevant, da die Dinger sowieso gepresst werden..
Screemer
2013-02-01, 02:41:40
gibts zum 20ten feb. was von der nächsten playsi zu sehen?
-> http://blog.us.playstation.com/2013/01/31/see-the-future/
Silentbob
2013-02-01, 07:42:23
SONY wird die PS4 vorstellen. Da bin ich aber sehr gespannt. :popcorn:
schoppi
2013-02-01, 07:50:10
Das Video ist ziemlich eindeutig.:popcorn:
deLuxX`
2013-02-01, 08:43:57
Meint ihr davon wird sich Microsoft beeindrucken lassen und evtl. ein Presseevent früher als gedacht ausrufen?
TheCounter
2013-02-01, 08:49:01
Meint ihr davon wird sich Microsoft beeindrucken lassen und evtl. ein Presseevent früher als gedacht ausrufen?
Glaube ich nicht. Die neue Xbox kommt sowieso im November 2013 und MS kann jetzt noch reagieren und kleine Änderungen vornehmen bei Bedarf.
Allerdings scheint das nicht nötig zu sein, da Sony bei der PS4 weniger Wert auf Hardware, sondern mehr wert auf Social Gaming legt. (http://www.golem.de/news/sonys-ps3-nachfolger-playstation-4-wird-am-20-februar-2013-vorgestellt-1302-97312.html)
kann man da nirgendswo einen sound-patch runterladen und auf HDD installieren?
Leider nicht.
Silentbob
2013-02-01, 08:55:22
Glaube ich nicht. Die neue Xbox kommt sowieso im November 2013 und MS kann jetzt noch reagieren und kleine Änderungen vornehmen bei Bedarf.
Deine Kristallkugel möchte ich auch haben. Die Konsole ist noch nicht einmal offiziell angekündigt und du willst hier immer irgendwelche Gerüchte als Fakten hinstellen.
Lord_X
2013-02-01, 09:11:47
Glaube ich nicht. Die neue Xbox kommt sowieso im November 2013 und MS kann jetzt noch reagieren und kleine Änderungen vornehmen bei Bedarf.
Sicher nicht! Sony wird an dieser Konferenz sicher keine technischen Daten veröffentlichen. Es wird ein neuer Controller gezeigt und ein paar Techdemos (welche aber nicht auf der PS4 laufen werden) gezeigt. Genau wie damals mit der PS3 und Killzone!
Einen Release gibt es irgendwann Anfang 2014 nach allen PS3 Blockbustern welche dieses Jahr ja noch kommen!
Das hat der Sony Typ ja auch schon gesagt, dass man MS den Vortritt geben will.
Man wäre ja saublöd, MS jetzt schon die Karten zu zeigen!
Wäre M$ vollkommen egal, da die Hardwarespecs eh final sind zu diesem Zeitpunkt.
deLuxX`
2013-02-01, 09:35:50
Glaube ich nicht. Die neue Xbox kommt sowieso im November 2013 und MS kann jetzt noch reagieren und kleine Änderungen vornehmen bei Bedarf.
Also wenn ich eins weiß, dann dass Microsoft da ganz sicher nicht in "letzter Minute" irgendwelche grundlegenden Anforderungen ändert, die sie vorher im "Lastenheft" beschrieben haben.:freak:
TheCounter
2013-02-01, 13:56:48
Bei der 360 hat MS 3 Monate vor dem finalen Design noch kleine Änderungen vorgenommen. Damit ist natürlich kein switch der GPU oder CPU gemeint.
Karümel
2013-02-01, 14:04:16
Da die neuen Konsolen ja angeblich von der Technik sich an der "normalen" PC Architektur orientieren, besteht die Möglichkeit das es evtl. mehr Konsolenspiele auf dem PC schaffen, wenn auch dann evtl. Zeitverzögert?
Crazy_Bon
2013-02-01, 14:08:45
Bei der 360 hat MS 3 Monate vor dem finalen Design noch kleine Änderungen vorgenommen. Damit ist natürlich kein switch der GPU oder CPU gemeint.
Ebenso Sony, die sich Nvidia ins Boot geholt haben und sich von der Idee mit einem eigenen Grafikchip (zweiter Cell?) verabschiedet haben oder den RAM nach heftiger Kritik von 256 auf ingesamt 512MB aufgestockt haben.
Crazy_Bon
2013-02-01, 14:15:40
Da die neuen Konsolen ja angeblich von der Technik sich an der "normalen" PC Architektur orientieren, besteht die Möglichkeit das es evtl. mehr Konsolenspiele auf dem PC schaffen, wenn auch dann evtl. Zeitverzögert?
Nicht mehr oder weniger als sonst. Nicht die Hardware ist entscheidend für einen Port, sondern die Software/SDK.
TheCounter
2013-02-01, 20:51:51
Sources familiar with the Microsoft console tell Polygon that Microsoft, while already aware of Sony's launch timing, plans to hold its own announcement this spring, months after Sony's unveiling. A variety of form-factors for Microsoft's new console, we're told, are already being focus tested.
http://www.polygon.com/2013/2/1/3940622/ps4-next-xbox-launch-date
Also wirds ne noch eine Weile dauern bis wir was von Durango sehen.
Bin aber schon sehr gespannt was Sony als Launch Lineup präsentieren wird.
Viel interessanter ist jedoch:
That could include, we're told, a subsidized version of the Xbox that serves as both a gaming platform and a cable box, though agreements with cable companies have yet to be finalized. Last year, The Verge reported that Microsoft was also working on a subsidized low-cost alternative to its next-gen console.
Also doch eine etwas schwächere, zweite Version?
Bin aber schon sehr gespannt was Sony als Launch Lineup präsentieren wird.
Launch Titel fand ich bisher selten prickelnd. Bei der PS3 waren sie auch sehr mau. Ich erwarte da bei der PS4 bis zum ersten weltweiten Weihnachtsgeschäft auch nichts spektakuläres. Vielleicht täusche ich mich aber ja und es gibt ein Uncharted 4.
TheCounter
2013-02-01, 21:03:24
Launch Titel fand ich bisher selten prickelnd. Bei der PS3 waren sie auch sehr mau. Ich erwarte da bei der PS4 bis zum ersten weltweiten Weihnachtsgeschäft auch nichts spektakuläres. Vielleicht täusche ich mich aber ja und es gibt ein Uncharted 4.
Aegies von Polygon meint dazu:
if you insist on buying only one of the next gen consoles this fall, your decision is going to be pretty hard. lots of exclusives for both.
https://twitter.com/aegies/status/297391413295988738
Bei MS würde mich es auch wundern wenn sie nix bringen. Die haben so viele neue Leute eingestellt und neue Studios gegründet die letzten 2-3 Jahre. Zudem war es in letzter Zeit sehr ruhig.
Ein Uncharted 4 auf PS4 wäre schon sehr kewl, aber wohl nicht zum Launch.
Karümel
2013-02-01, 21:12:22
Was ist eigentlich mit den Gerüchten das die PS4 einen anderen/ neuen Controller bekommt?
Der Dualshock (oder wieder heißt) der PS3 ist für mich ein K.O. Kriterium gewesen.
TheCounter
2013-02-01, 21:17:27
Was ist eigentlich mit den Gerüchten das die PS4 einen anderen/ neuen Controller bekommt?
Ein überarbeiteter PS3 Controller der statt der PS-, Start- und Select-Taste eine Touchpad (Rückseite der Vita) hat. Das sind die aktuellsten Gerüchte.
krötenfresse
2013-02-01, 21:17:53
kann man da nirgendswo einen sound-patch runterladen und auf HDD installieren?
Leider nicht.
das ist aber echt armselig. man sollte erwarten, daß sie für eine installation des spiels sogar eine extra dvd dazu packen, mit vernünftigem sound und vielleicht ein paar detail-texturen, de halt sonst (ohne inst.) nicht möglich wären.
ich hoffe mal sehr, daß es nicht bei allen 360-games so ist, wie bei halo4.
Karümel
2013-02-01, 21:20:27
Ein überarbeiteter PS3 Controller der statt der PS-, Start- und Select-Taste eine Touchpad (Rückseite der Vita) hat. Das sind die aktuellsten Gerüchte.
Also wird das Teil genauso klein und unhandlich (für meine Hände) werden wenn das Gerücht stimmt. würde für mich bedeuten es wird nichteinmal in Erwähgung gezogen dei PS4 zu kaufen.
TheCounter
2013-02-01, 21:21:39
ich hoffe mal sehr, daß es nicht bei allen 360-games so ist, wie bei halo4.
Nein ist es nicht. Halo 4 war nur ein Beispiel, da es mir dort extrem aufgefallen ist.
Wenn man den InGame Soundtrack und den OST von CD mal vergleicht, sind das extreme Unterschiede.
Ringwald
2013-02-01, 21:23:16
Also wird das Teil genauso klein und unhandlich (für meine Hände) werden wenn das Gerücht stimmt. würde für mich bedeuten es wird nichteinmal in Erwähgung gezogen dei PS4 zu kaufen.
Ich verstehe deine Logik nicht, wenn die Gerüchte Stimmen wird der Controller ja größer und nicht kleiner und somit auch handlicher.
TheCounter
2013-02-01, 21:25:35
Der Controller soll exakt gleichgroß sein.
Karümel
2013-02-01, 21:25:55
Ich verstehe deine Logik nicht, wenn die Gerüchte Stimmen wird der Controller ja größer und nicht kleiner und somit auch handlicher.
Habe das so verstanden das die eigentlich Größe bleibt nur in der Mitte wird der anders, also da wo das Touchpad hinkommen könnte.
dildo4u
2013-02-01, 21:27:37
Das wäre zu wenig Platz,die Sticks sind einfach zu dicht zusammen.
TheCounter
2013-02-01, 21:30:45
Sources close to the hardware have revealed to us that PS4 will ship with a redesigned controller which is the same size as an existing DualShock but features a small touchpad in place of the existing Select, Start and PS buttons. The tech is based on Vita’s rear touchpad, and is similarly responsive in use.
http://www.neogaf.com/forum/showthread.php?t=511181
30@Frames
2013-02-01, 21:57:22
PSOrbis mächtiger.!
Edge: PS4 to launch in Europe in early 2014, is more powerful than next Xbox
Development sources with working knowledge of both next generation consoles have told us that PlayStation 4 will be more powerful than the next Xbox, will ship with a redesigned controller and launch by the end of the year in Japan and the US. PlayStation 4’s European launch will follow in early 2014.
Sony is set to reveal its next PlayStation on Wednesday February 20th at an event dubbed ‘see the future’. Sony Computer Entertainment released a teaser video last night to announce the event. Below, our sources revealed what to expect from PlayStation 4.
The controller
Sources close to the hardware have revealed to us that PS4 will ship with a redesigned controller which is the same size as an existing DualShock but features a small touchpad in place of the existing Select, Start and PS buttons. The tech is based on Vita’s rear touchpad, and is similarly responsive in use.
A new Share button on the controller will, when pressed, launch a new feature that will allow screenshots and video to be distributed online. The PS4 hardware will continually record the most recent 15 minutes of onscreen action (with no processing penalty, claims our source), which users will then be able to edit and broadcast via the Internet.
The launch
We’re told that PlayStation 4 will launch in Japan and the US by Christmas, with a Euro rollout following in early 2014, the delay attributed to the complexities involved in European distribution. Alongside the console, Sony will also introduce a new, improved iteration of its PlayStation Eye peripheral, which remains compatible with the PlayStation Move controller. Move will be available at launch, but it’s not clear yet whether it will be bundled with the hardware. Sony has already earned an enormous amount of goodwill among studios working with PS4 development hardware. Privately, Sony representatives have conceded that the company made a mistake in creating such esoteric architecture for PS3, and its strategy for PS4 gives developers more opportunities this time around, notably because the hardware is much more PC-like in its makeup than PS3.
We have confirmed with sources that recently leaked tech specs are accurate. Though Durango devkits offer 8GB of DDR3 RAM, compared to Orbis’s 4GB, Sony’s GDDR5 solution is capable of moving data at 176 gigabytes per second, which should eliminate the sort of bottlenecks that hampered PS3 game performance. Importantly, we’ve learned that Sony has told developers that it is pushing for the final PS4 RAM to match up to Microsoft’s 8GB.
Both platforms are driven by eight-core AMD CPUs clocked at 1.6GHz, with Microsoft opting for a D3D11.x GPU from an unknown source and Sony utilising a more capable solution in AMD’s ‘R10XX’ architecture, alongside the so-called ‘Liverpool’ system-on-chip.
It’s clear Sony has designed a system that, on paper, outperforms Microsoft’s next Xbox. One source familiar with both platforms tells us that in real terms Sony’s console is “slightly more powerful” and “very simple to work with”.
Ultimately, the performance differences between the two consoles will have as much bearing on multiplatform releases as the differen
http://www.edge-online.com/news/playstation-4-revealed/
del_4901
2013-02-01, 22:38:50
Das wäre zu wenig Platz,die Sticks sind einfach zu dicht zusammen.
Oh ja, ich hatte auch immer das Problem mit dem PS3 Kontroller, dass die Daumen kollidieren. ;)
Tesseract
2013-02-01, 23:05:00
sollten die konsolen wirklich beide mit 8GB nutzbarem speicher kommen (wie auch immer der genau aufgeteilt sein wird) wäre das eine sehr erfreuliche nachricht.
00-Schneider
2013-02-01, 23:08:58
Naja, wären -8- GB GDDR5 nicht etwas arg teuer?
Tesseract
2013-02-01, 23:15:53
darum meine anmerkung mit der aufteilung. vielleicht wurde da was fehlinterpretiert und die 8GB sind einfach DDR3+GDDR5 zusammen. aber da sowieso nicht alles am GDDR5 liegen muss wäre auch das schon eine sehr gute nachricht für alle kommenden multiplattformtitel.
TheCounter
2013-02-01, 23:18:34
Wo soll man die 4GB denn platz technisch hin zaubern in so kurzer Zeit? Geplant waren anfangs 2GB GDDR5.
00-Schneider
2013-02-01, 23:21:19
Geplant waren anfangs 2GB GDDR5.
Das lese ich zum ersten Mal. Quelle?
Iterator
2013-02-01, 23:27:57
Naja, wären -8- GB GDDR5 nicht etwas arg teuer?
In Anbetracht das Speicherchips Sets in den nächsten Jahren für PS 4 Konsolen im hohen
zweistelligen Millionenbereich abgenommen werden, werden in dem Bereich die
Kosten wohl nicht all zu arg ausfallen.
pittiplatsch
2013-02-02, 00:24:11
Nur mal gedacht, ich baue eine Xbox, mit sehr speziellen Custom Chips, sprich SoC, oder APU in Form einer sehr effizienten GPU und CPU, um den Speicher, also einem HMC herum auf, und rendere direkt in den 3D-DDR3-Ram hinein, da dieser ja bis zu 1Tb/s abarbeiten kann.
Könnte ich dadurch mehr Power "auf die Strasse bringen"?
Aber sowas von, ich könnt mir sogar nen Rohpowerdefizit von 1,2 TF zu 1,8 TF leisten, und würd die trotzdem mit nem Grinsen kicken, und weit darüber hinaus. ;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.