Archiv verlassen und diese Seite im Standarddesign anzeigen : HD DVD vs. BluRay 3:0 (erstmal)
Avalox
2006-08-19, 11:40:10
Ein freier c't Artikel zum bekannten "High-Def Digest" Test,
"(K)ein Direktvergleich zwischen Blu-ray Disc und HD DVD
Als erstes Studio hat Warner Home Entertainment in den USA Spielfilme in den beiden neuen HD-Disc-Formaten auf den Markt gebracht - und damit den lange erhofften 1:1-Vergleich scheinbar in greifbare Nähe gerückt."
http://www.heise.de/ct/06/18/047/
BlackBirdSR
2006-08-19, 11:47:49
VC-1 und MPEG-2 ?
Sollte nicht h.264 zum Einsatz kommen? Oder habe ich da was falsch aufgeschnappt.
VC-1 und MPEG-2 ?
Sollte nicht h.264 zum Einsatz kommen? Oder habe ich da was falsch aufgeschnappt.
Ist eine Option, aber kein Zwang, d.h. es gibt eine Reihe von gültigen Formaten für beide Medien. MPEG-2 ist z.B. auch für beide Formate erlaubt:
Erlaubte Codecs für HD-DVD und BR: .264/AVC, MPEG-2 oder VC-1
Sony Pictures setzt bei BR z.B. auf MPEG-2. Und das IMO wohl eher, um die Scheiben auch schön voll zu bekommen ;)
Warner setzt bei HD-DVD auf VC-1.
Sony hat sich unter Insidern extrem lächerlich gemacht.
MPEG 2 ist unter 1080 keine Option, da die Datrerate extrem hoch sein muß, um bei dieser Auflösung perfekte Bilder zu liefern.
Mit der zweiten Schicht gibt es Probleme. Von den versprochen 50 GB sind also nur 25 GB nutzbar.
Die ersten Filme sehen kaum besser als auf einer DVD aus. (wahrscheinlich, weil Bandbreite fehlt)
Alles in Allem ein Trauerspiel, was Sony da abliefert.
Gruß M_B
Avalox
2006-08-19, 12:01:03
@BlackBirdSR
Ich weiss nicht wie es in diesem Fall gelaufen ist, zur Zeit stellt sich das Problem folgendermaßen dar.
Die DVD Produzenten haben heute nur geringe Margen. Es sind keine Rückstellungen vorhanden, neue Technik komplett zu kaufen.
Deshalb haben die BluRay Technik Hersteller folgende Vertriebsstrategie genutzt. DVD Hersteller herhalte deine Masterring Technik (MPEG 2) und kaufe nur neue Pressen. Die Idee dahinter, auf einer DualLayer BluRay ist genügend Platz, selbst für MPEG2 Streams von ansprechender Qualität.
Der Nachteil ist, die Hersteller haben erhebliche Probleme mit der DualLayer BluRay. Alle bisher erschienenen BluRay sind SingleLayer Disks, mit halber Speicherkapazität. Der Content muss nun viel stärker MPEG2 komprimiert werden. Das Ergebnis ist schlecht.
Anders sieht es bei HD DVD aus. Dort wurde eine andere Vertriebsstrategie gefahren. "DVD Hersteller, kauf neue Mastering Hardware und behalte deine alten Pressen".
Zur Zeit scheint dieses Konzept viel besser aufzugehen. Mehr Aufwand in der Aufbereitung, bessere Codecs, einfacheres Medium. Das ist die HD DVD. Schon vor ein paar c't war ein Test von den ersten BluRay Filmen dabei. Ergebnis, selbst WMV HD DVD ( hat nichts mit der HD DVD zu tun. normale DVD R, mit WMV Stream) erreichte ein sehr deutlich besseres Bild als die BluRay.
Deshalb haben die BluRay Technik Hersteller folgende Vertriebsstrategie genutzt. DVD Hersteller herhalte deine Masterring Technik (MPEG 2) und kaufe nur neue Pressen. Die Idee dahinter, auf einer DualLayer BluRay ist genügend Platz, selbst für MPEG2 Streams von ansprechender Qualität.
Der Nachteil ist, die Hersteller haben erhebliche Probleme mit der DualLayer BluRay. Alle bisher erschienenen BluRay sind SingleLayer Disks, mit halber Speicherkapazität. Der Content muss nun viel stärker MPEG2 komprimiert werden. Das Ergebnis ist schlecht.
Das wäre natürlich auch ein schlüssige Erklärung für dieses Phänomen.
Allerdings frage ich mich, ob die Umstellung der Kodierung am Ende des Mastering-Prozesses (dieser findet i.d.R. wie das Editing ja mit unkomprimierten bzw. nicht verlustbehaftet komprimiertem Material statt) wirklich derartige Kosten verursachen würde. Im Prinzip ist das ja lediglich ein simpler Kodierungs-Prozess bzw. dürfte auch High-End-Hardware hier nicht die Welt kosten.
Zudem setzen einige Studios ja auch auf beide Medien-Formate.
=Floi=
2006-08-19, 12:14:57
ich kaufe mir sowieso nur geräte
die CD DVD+- HD-DVD BluRay unterstützen alles andere kommt mir nicht ins haus
Avalox
2006-08-19, 12:30:39
Im Prinzip ist das ja lediglich ein simpler Kodierungs-Prozess bzw. dürfte auch High-End-Hardware hier nicht die Welt kosten.
Man kennt die Lizenzmodelle nicht. Gut möglich, dass dort die Aufrechnung pro produzierten Medium vorgenommen wird, oder ähnliches und damit direkt gegen die Vertriebsspanne laufen.
Sehe dir doch mal an, welchen Apparat man an Entwicklung, Vertrieb und Industrie für HD DVD und BluRay mit dem Kauf eines Endproduktes anteilig bezahlt. Wie lange sich allein schon die Entwicklung hinzieht. Will ja alles irgendwie bezahlt werden. Entsprechend verzinst natürlich, sonst könnte ja der Anleger sein Geld zur Bank bringen und wäre nicht gezwungen Aktien zu kaufen um eine ordentlich Rendite zu erreichen. Ich kenne die Preise nicht, ich bin aber sicher, dieser würde und die Schuhe ausziehen.
Muh-sagt-die-Kuh
2006-08-19, 13:06:40
Man kennt die Lizenzmodelle nicht. Gut möglich, dass dort die Aufrechnung pro produzierten Medium vorgenommen wird, oder ähnliches und damit direkt gegen die Vertriebsspanne laufen.Wirklich? Dieses Dokument (http://www.mpegla.com/avc/AVC_TermsSummary.pdf#search=%22h.264%20license%22) beschreibt die H.264/AVC Lizesierung ziemlich ausführlich...die Lizenzkosten liegen bei maximal 0,02 $ pro Medium.
Im Prinzip gibt es für die HD-Medien nur ein sinnvolles Videoformat....und das ist 1080p mit H.264 Codierung. Als Framerate nimmt man 25 oder 30 fps. Das 1080i Format sollte man am besten gleich beerdigen.....fast alle HD-Geräte sind progressiv arbeitenden TFTs....die mit interlaced Material zu füttern ist Schwachsinn³. Vor allem wenn man bedenkt, dass eine Konvertierung p->i völlig unkompliziert ist....ganz im Gegensatz zu i->p.
Avalox
2006-08-19, 13:09:43
Wirklich? Dieses Dokument (http://www.mpegla.com/avc/AVC_TermsSummary.pdf#search=%22h.264%20license%22) beschreibt die H.264/AVC Lizesierung ziemlich ausführlich...die Lizenzkosten liegen bei maximal 0,02 $ pro Medium.
Das ist eine andere Ebene. Ich meinte nicht den Codec, das theoretische Verfahren, sondern das Produkt, dass der heutige DVD Hersteller kaufen kann.
Natürlich fallen für die Lizenzen der Technik ebenfalls Kosten an.
Im Prinzip gibt es für die HD-Medien nur ein sinnvolles Videoformat....und das ist 1080p mit H.264 Codierung. Als Framerate nimmt man 25 oder 30 fps.
Wenn du Filme meinst, dann Full Ack.
Bei Live-Sendungen, gerade Sport (Fußball) wäre 720p50 besser.
P25/30 reicht nicht mehr aus, damit die Bewegungen als absolut flüssig bezeichnet werden können.
Das 1080i Format sollte man am besten gleich beerdigen.....fast alle HD-Geräte sind progressiv arbeitenden TFTs....die mit interlaced Material zu füttern ist Schwachsinn³.
Vollkommen korrekt. Frage mich auch manchmal was die geritten hat, um am Interlaceverfahren noch Interesse zu haben.
Vor allem wenn man bedenkt, dass eine Konvertierung p->i völlig unkompliziert ist....ganz im Gegensatz zu i->p.
Ganz unkompliziert ist es nicht. Auch hier muss man zwischen Film und Livesendungen unterscheiden.
Aber du hast natürlich recht, daß es einfacher wäre.
Gruß M_B
TheCounter
2006-08-19, 15:11:19
fast alle HD-Geräte sind progressiv arbeitenden TFTs....
Nicht jeder guckt seine Filme am TFT. Die meisten werden ihre Filme am HDTV gucken und da gibts nur sehr wenige günstige die 1080p machen. Von Projektoren ganz zu schweigen (ab 7000EUR aufwärts erst).
Für TV Sendungen wird ja auch entweder 720p oder 1080i genommen, selbst in den USA.
Nicht jeder guckt seine Filme am TFT. Die meisten werden ihre Filme am HDTV gucken und da gibts nur sehr wenige günstige die 1080p machen. Von Projektoren ganz zu schweigen (ab 7000EUR aufwärts erst).
Ich denke er meinte mit TFTs LCD-TVs. ;)
Wobei alle Technologien (LCD, Plasma, Rückpro) außer der Röhre progressiv arbeiten.
Die 1080P-Ausgabe ist halt so teuer, weil sie nicht standarisiert wurde.
Auf Dauer sollte sich aber 1080p durchsetzen oder auch 720p für andere Anwendungen.
Gruß M_B
Nicht jeder guckt seine Filme am TFT. Die meisten werden ihre Filme am HDTV gucken und da gibts nur sehr wenige günstige die 1080p machen. Von Projektoren ganz zu schweigen (ab 7000EUR aufwärts erst).
Für TV Sendungen wird ja auch entweder 720p oder 1080i genommen, selbst in den USA.
Dann wird eben von 1080p auf 720p runterskaliert. Das sieht kaum schlechter aus. Und es ist garantiert besser als auf einem Beamer oder tft 1080i zu sehen.
Dann wird eben von 1080p auf 720p runterskaliert. Das sieht kaum schlechter aus. Und es ist garantiert besser als auf einem Beamer oder tft 1080i zu sehen.
So siehts aus.
Allerdings muß der Scaler auch was taugen. ;)
Wobei das Skalieren nicht so problematisch wie das De-Interlacing ist.
Gruß M_B
Asmodeus
2006-08-19, 16:33:04
Wirklich? Dieses Dokument (http://www.mpegla.com/avc/AVC_TermsSummary.pdf#search=%22h.264%20license%22) beschreibt die H.264/AVC Lizesierung ziemlich ausführlich...die Lizenzkosten liegen bei maximal 0,02 $ pro Medium.
Im Prinzip gibt es für die HD-Medien nur ein sinnvolles Videoformat....und das ist 1080p mit H.264 Codierung. Als Framerate nimmt man 25 oder 30 fps. Das 1080i Format sollte man am besten gleich beerdigen.....fast alle HD-Geräte sind progressiv arbeitenden TFTs....die mit interlaced Material zu füttern ist Schwachsinn³. Vor allem wenn man bedenkt, dass eine Konvertierung p->i völlig unkompliziert ist....ganz im Gegensatz zu i->p.
So wird es bei HD-DVD und BR ja auch gemacht. Auf beiden Medien liegen die Filme in 1080p/24 vor und werden dann in die entsprechenden Ausgabeformate umgewandelt. Und da das Ausgangsmaterial in 1080p auf den Medien vorliegt, gibt es bei der Ausgabe visuell auch keinen Unterschied zwischen 1080i und 1080p, einen halbwegs fähigen Deinterlacer vorausgesetzt.
Gruss, Carsten.
TheCounter
2006-08-19, 16:38:25
Auf Dauer sollte sich aber 1080p durchsetzen oder auch 720p für andere Anwendungen.
Für HD Disks vielleicht, für TV ist 1080i Standard in Europa. Mir ist das eigentlich wurscht ob ich nun 1080i oder 1080p auf dem Bildschirm hab da man die Unterschiede mit der Lupe suchen kann ;)
Jetzt müssen erstmal die 720p HDTVs günstiger werden und ein paar Jahre danach werden die 1080p HDTVs sicher auch günstiger.
So wird es bei HD-DVD und BR ja auch gemacht. Auf beiden Medien liegen die Filme in 1080p/24 vor und werden dann in die entsprechenden Ausgabeformate umgewandelt.
Right.
Und da das Ausgangsmaterial in 1080p auf den Medien vorliegt, gibt es bei der Ausgabe visuell auch keinen Unterschied zwischen 1080i und 1080p, einen halbwegs fähigen Deinterlacer vorausgesetzt.
Gruss, Carsten.
Sag das nicht. Gerade beim De-Interlacer können die Unterschiede enorm sein.
Gruß M_B
Für HD Disks vielleicht, für TV ist 1080i Standard in Europa.
Nein, selbst die EBU hat angeraten in 720p zu senden. Das betrifft vor allem Live-Sendungen, und das zurecht.
Mir ist das eigentlich wurscht ob ich nun 1080i oder 1080p auf dem Bildschirm hab da man die Unterschiede mit der Lupe suchen kann ;)
Nicht wirklich. Die Artefakte be einem schwachen De-Interlacer sieht man sofort.
Gruß M_B
Asmodeus
2006-08-19, 16:59:11
Mir ist das eigentlich wurscht ob ich nun 1080i oder 1080p auf dem Bildschirm hab da man die Unterschiede mit der Lupe suchen kann ;)
Nur wenn das Ausgangsmaterial in 1080p vorliegt sind die Unterschiede gering (das Deinterlacing macht dann eben den mehr oder weniger sichtbaren Unterschied aus). Liegt Ausgangsmaterial aber einmal in 1080i und einmal in 1080p vor, dann sind die Unterschiede wesentlich größer. Du darfst nicht vergessen, bei einer Aufnahme mit einer 1080i Kamera werden abwechselnd nur 540 Zeilen Informationen aufgenommen, bei einer Aufnahme mit einer 1080p Kamera aber immer 1080 Zeilen Informationen. Und das spiegelt sich dann auch in der Ausgabe wieder.
Gruss, Carsten.
TheCounter
2006-08-19, 17:03:30
Nur wenn das Ausgangsmaterial in 1080p vorliegt sind die Unterschiede gering
Laut bisherigen Informationen liegt auf Blu-ray und HD DVD Disks doch sowieso alles in 1080p vor, kenn zumindest keine Aussagen das nur 1080i Material auf den HD Disks vorhanden sein wird (von den Filmstudios).
Muh-sagt-die-Kuh
2006-08-19, 17:04:00
So wird es bei HD-DVD und BR ja auch gemacht. Auf beiden Medien liegen die Filme in 1080p/24 vor und werden dann in die entsprechenden Ausgabeformate umgewandelt. Und da das Ausgangsmaterial in 1080p auf den Medien vorliegt, gibt es bei der Ausgabe visuell auch keinen Unterschied zwischen 1080i und 1080p, einen halbwegs fähigen Deinterlacer vorausgesetzt.
Gruss, Carsten.Das wurde auch bei DVDs schon gemacht.
Progressives Material als interlaced codiert ist prinzipiell kein Problem, wenn auch komplett sinnlos. Wenn beide Halbbilder aus einem Vollbild sind, dann kann man sie eben auch einfach so darstellen ;)
Was die Geräte angeht: 1080p sollte theroretisch jedes darstellen können, auch wenn es nicht standardisiert ist.....mehr als 720p in groß ist es schliesslich nicht.
Asmodeus
2006-08-19, 17:06:12
Laut bisherigen Informationen liegt auf Blu-ray und HD DVD Disks doch sowieso alles in 1080p vor, kenn zumindest keine Aussagen das nur 1080i Material auf den HD Disks vorhanden sein wird (von den Filmstudios).
*g* ja, so schrieb ich es ja auch bereits. Ich meinte damit die anderen Gebiete, die Du in einem Deiner vorherigen Posts angesprochen hast, also z.B. Fernsehübertragungen. Und dort ist es dann eben ein Unterschied, ob das Bild von einer 1080i Kamera oder einer 1080p Kamera geliefert wird.
Gruss, Carsten.
Nur, wenn das Ausgangsmaterial in 1080p vorliegt sind die Unterschiede gering
Genau das Gegenteil ist der Fall. Nur wenige De-Intelacer in Projektoren bieten für 1080i einen Filmmodus, der die Halbbilder wieder zu einem ganzen zusammensetzt. Stattdessen wird oft ein bob-modus verwendet, der die Fehlenden Halbbilder nur interpoliert. Dadurch verliert man die halbe vertikale Auflösung, und das ist deutlich zu erkennen. Das kann jeder mal ausprobieren, und bei einem Software DVD Player von wave nach bob de_Interlacing umschalten und umgekehrt.
Asmodeus
2006-08-19, 17:11:31
Was die Geräte angeht: 1080p sollte theroretisch jedes darstellen können, auch wenn es nicht standardisiert ist.....mehr als 720p in groß ist es schliesslich nicht.
Naja, 1080p ist eigentlich z.B. schon seit HDMI 1.1 standardisiert. Aber Du beziehst Dich wohl eher auf HD-Fernsehübertragungsstandards nehme ich mal an. Und die ersten 1080p Panels mit auch dafür ausgelegter Ansteuerungs- und Übertragungselektronik gibt es eben einfach noch nicht so lange, wie die Technik für 720p. Aber ich denke, in 2 bis 3 Jahren wird auf der Displayseite keiner mehr von 720p sprechen.
Gruss, Carsten.
Asmodeus
2006-08-19, 17:16:14
Genau das Gegenteil ist der Fall. Nur wenige De-Intelacer in Projektoren bieten für 1080i einen Filmmodus, der die Halbbilder wieder zu einem ganzen zusammensetzt. Stattdessen wird oft ein bob-modus verwendet, der die Fehlenden Halbbilder nur interpoliert. Dadurch verliert man die halbe vertikale Auflösung, und das ist deutlich zu erkennen. Das kann jeder mal ausprobieren, und bei einem Software DVD Player von wave nach bob de_Interlacing umschalten und umgekehrt.
Deswegen sprach ich ja in einem vorherigen Post auch von einem "halbwegs brauchbaren Deinterlacer" und der sollte dann schon mehr als den Bob-Modus beherrschen. ;) Und selbst der im aktuellen BR-Player von Samsung verbaute Decoder-Chip kann nur 1080i, so dass man einfach noch einen Deinterlacer dahinter geschaltet hat, um 1080p als Ausgangssignal anbieten zu können. Aber natürlich ist 1080p immer das Optimum, da stimme ich mit Dir voll überein.
Gruss, Carsten.
Spasstiger
2006-08-19, 17:22:21
Mit 720p @ 50-60 fps wär ich schon voll zufrieden für die nächsten paar Jahre. ;)
Das sieht auch sicherlich besser aus als 1080i @ 30 fps.
Die einzig wahre Variante für Filme ist meiner meinung nach 1080p @ 24
superdash
2006-08-20, 10:05:42
1080p hat zwar eine sehr hohe auflösung aber @25 frames/sek ist einfach nicht mehr zeitgemäß. Ich hab lieber schön smoothe filme und eine etwas kleinere Auflösung. Vor allem muss man auch sehen, dass über 90% der LCD-Besitzer kein 1080p benötigen, da fast alle aktuellen (zumindest die nicht unmenschlich teuren) LCDs und Plasmas keine 1080p Auflösung haben. Da ist es doch viel sinnvoller eine sehr flüssige wiedergabe zu haben, wenn fast niemand 1080p nutzen kann.
Meiner Meinung nach ist für die nächsten 10 Jahre 720p@50 die perfekte Lösung, da sich am LCD-Markt die 1920x1080er auflösung auch nicht sonderlich schnell durchsetzen wird. In 2-3 Jahren gibts die Geräte dann zu einem Preis von vllt. 1000€. Die Leute die immer auf dem aktuellen stand der Technik sein wollen geben das vllt. nochmal aus (und der alte LCD wird verschachert). Aber wenn ich das so sehe sitzt hier in Germany doch immer noch 75% oder mehr vor einer Röhre. Die wollen nicht viel Geld ausgeben und werden sich auch in den nächsten 5-10 Jahren keinen 1080p LCD kaufen.
Ergo: 720p@50 wär für fast alle (außer 2-3% Freaks) die sinnvollste Lösung.
PatkIllA
2006-08-20, 10:10:24
meistens ruckelt es weil die Fernsehelektronik Müll ist. Da wird immer auf 60hz umgerechnet oder zumindest Telecine gemacht. Ich habe beim Beamerkauf extra drauf geachtet, dass problemlose 1:1 Darstellung bei 48, 50 und 60 Hertz ohne Umrechnung funktioniert. Ohne das ruckelt es immer, auch bei 50fps.
Avalox
2006-08-20, 10:21:53
Meiner Meinung nach ist für die nächsten 10 Jahre 720p@50 die perfekte Lösung, da sich am LCD-Markt die 1920x1080er auflösung auch nicht sonderlich schnell durchsetzen wird.
Ich denke das Gegenteil.
1920x1080 ist die HD Auflösung. Es gibt keine erstzunehmende Quelle, welche 720 Zeilen nativ liefert. Schon heute.
Es gibt die 720 Zeilen Auflösung quasi auch überhaupt nicht mehr am Markt.
Die billiger zu produzierenden 768 Zeilen Displays sind schon längst gang und gebe geworden.
Auf der diesjährigen IFA, werden die im Rückzug inbegriffenen Plasma Hersteller in breiter Front 1920x1080p Displays zeigen. Für LCDs war diese Auflösung noch nie ein Problem. Sobald die Maschinen von den Herstellern abgeschrieben wurden, werden 1080p Panel kommen und dass finde ich auch wirklich gut so, denn (erst) ein 1080p Bild sieht wirklich beeindruckend aus.
10 Jahre halten 720p Displays nicht aus. Eine Anekdote, die vielleicht als Randnotiz bei mobilen HD Ready Geräten (PDAs etc) etwas länger überleben wird.
sloth9
2006-08-20, 13:29:45
Das wurde auch bei DVDs schon gemacht.
Progressives Material als interlaced codiert ist prinzipiell kein Problem, wenn auch komplett sinnlos. Wenn beide Halbbilder aus einem Vollbild sind, dann kann man sie eben auch einfach so darstellen ;)
Was die Geräte angeht: 1080p sollte theroretisch jedes darstellen können, auch wenn es nicht standardisiert ist.....mehr als 720p in groß ist es schliesslich nicht.
Das stimmt nicht. Praktisch alle hier kaufbaren DVDs sind PAL-interlaced mit 50 Hz, weil der Standard für analoge SDTV-Geräte konzipert wurde und dann gar nichts umgerechnet werden muss. Auch Kino-Filme, die 25 Hz progressiv aufgenommen wurden. Das ist ja das Problem.
PatkIllA
2006-08-20, 13:51:07
Das stimmt nicht. Praktisch alle hier kaufbaren DVDs sind PAL-interlaced mit 50 Hz, weil der Standard für analoge SDTV-Geräte konzipert wurde und dann gar nichts umgerechnet werden muss. Auch Kino-Filme, die 25 Hz progressiv aufgenommen wurden. Das ist ja das Problem.Dafür gibt es ja das Progressiv Flag. Wenn auch teilweise falsch gesetzt. Von der minimal schlechteren Kompressionsfähigkeit abgesehen sehe ich da keine Nachteile, sofern es denn richtig gesetzt ist. Zumindest auf dem PC kann man das ja auch einfach forcieren.
Dafür gibt es ja das Progressiv Flag. Wenn auch teilweise falsch gesetzt. Von der minimal schlechteren Kompressionsfähigkeit abgesehen sehe ich da keine Nachteile, sofern es denn richtig gesetzt ist. Zumindest auf dem PC kann man das ja auch einfach forcieren.
Das Problem ist doch genau das es oft nicht richtig gesetzt wurde. De-interlacer müssen daher das Bildmaterial in echtzeit analysieren um brauchbare ergebnisse zu erzielen. Das macht nachträgliches De-interlacing aufwändig und unzuverlässig.
sloth9
2006-08-20, 20:42:13
Un z.B. WinDVD unterstützt einen vernünftigen Deinterlacer (kein Bob o. Weave) erst in der Premium Edition, die extrem teuer ist.
Bei PowerDVD dürfte es ähnlich aussehen.
Spasstiger
2006-08-20, 20:56:50
Gibt es eigentlich Pläne, vom Interlacing bei der Fernsehausstrahlung wegzukommen, zumindest im digitalen Bereich?
svenw
2006-08-20, 21:29:11
Gibt es eigentlich Pläne, vom Interlacing bei der Fernsehausstrahlung wegzukommen, zumindest im digitalen Bereich? Kaum! kein Interlancing bedeutet ca doppelte Bandbreite und BAndbreite kostet Geld. 720er soll es als 720p geben 1080er aber nur als 1080i.
Spasstiger
2006-08-20, 21:34:14
Kaum! kein Interlancing bedeutet ca doppelte Bandbreite und BAndbreite kostet Geld. 720er soll es als 720p geben 1080er aber nur als 1080i.
Bei digitaler Übertragung wird man nicht die doppelte Bandbreite benötigen wegen der Kompression. ;)
Die Zwischenzeilen könnte man prinzipiell ja auch aus den anderen Zeilen interpolieren (codecmäßig), woraus dann keine höhere benötigte Bandbreite resultiert. Aber das lästige Deinterlacing fällt weg.
PatkIllA
2006-08-20, 21:37:05
Kaum! kein Interlancing bedeutet ca doppelte Bandbreite und BAndbreite kostet Geld. 720er soll es als 720p geben 1080er aber nur als 1080i.
Da 1080p eigentlich eh immer von Film ist und somit nur 24fps hat würde das weniger Bandbreite kosten als 720p@60fps
PatkIllA
2006-08-20, 21:40:04
Die Zwischenzeilen könnte man prinzipiell ja auch aus den anderen Zeilen interpolieren (codecmäßig), woraus dann keine höhere benötigte Bandbreite resultiert. Aber das lästige Deinterlacing fällt weg.Das ist aber auch nicht die tolle Lösung. Da wird dann ja an noch einer Stelle das Bild gewandelt. Auch wenn die Sendestudios bessere Deinterlacer haben dürften als in einem 0815 TFT steckt, holt man doch mehr raus, wenn das optimal aufeinander abgestimmt ist. Es gibt ja auch noch ein paar Geräte, die wirklich interlaced ausgeben können.
Und das wäre dann doch Bandbreitenverschwendung.
Kaum! kein Interlancing bedeutet ca doppelte Bandbreite und BAndbreite kostet Geld. 720er soll es als 720p geben 1080er aber nur als 1080i.
1080i und 1080p brauchen prinzipiell die gleiche bandbreite.
es sind ja "nur" anstatt 1920x1080@25fps 1920x540@50fps, was gleich viel bandbreite benötigt.
Asmodeus
2006-08-21, 09:38:26
1080i und 1080p brauchen prinzipiell die gleiche bandbreite.
es sind ja "nur" anstatt 1920x1080@25fps 1920x540@50fps, was gleich viel bandbreite benötigt.
Mir wäre neu, dass der überwiegende Großteil von Empfängern/Anzeigegeräten mit 25Hz Eingangssignalen umgehen kann. Meiner Meinung nach können die meisten Geräte eben nur 50/60Hz Eingangssignale entgegennehmen, somit würden sich also 1080p mit 50/60Hz und 1080i mit 50/60Hz als zu übertragende Signale gegenüberstehen. Und da ist die Bandbreite keineswegs gleich. Oder werden über digitalen Satelliten- oder Kabelempfang wirklich 24/25 Bilder pro Sekunde übertragen und im Receiver werden daraus dann 50/60Hz gemacht?
Gruss, Carsten.
PatkIllA
2006-08-21, 10:00:30
Mir wäre neu, dass der überwiegende Großteil von Empfängern/Anzeigegeräten mit 25Hz Eingangssignalen umgehen kann. Meiner Meinung nach können die meisten Geräte eben nur 50/60Hz Eingangssignale entgegennehmen, somit würden sich also 1080p mit 50/60Hz und 1080i mit 50/60Hz als zu übertragende Signale gegenüberstehen. Und da ist die Bandbreite keineswegs gleich. Oder werden über digitalen Satelliten- oder Kabelempfang wirklich 24/25 Bilder pro Sekunde übertragen und im Receiver werden daraus dann 50/60Hz gemacht?Übertragung und Speicherung von 1080p hat eigentlich immer höchsten 30 Bilder pro Sekunde. Die meisten Geräte können ja eh kein 1080p annehmen. Egal mit wieviel Hz.
Asmodeus
2006-08-21, 10:58:13
Übertragung und Speicherung von 1080p hat eigentlich immer höchsten 30 Bilder pro Sekunde. Die meisten Geräte können ja eh kein 1080p annehmen. Egal mit wieviel Hz.
Bezieht sich Deine Aussage jetzt nur auf die Übertragung von Fernsehsignalen, oder allgemein auf alle Arten von Übertragungen. Nur als Beispiel: wenn ein Beamer die Modi 1080p mit 50/60 Hz unterstützt, dann nimmt er das 1080p Signal doch auch mit 50/60Hz entgegen und nicht mit 25/30Hz und macht dann daraus selbst 50/60Hz, oder? Meiner Meinung nach spielt z.B. ein an dem Beamer angeschlossener BR-Player das 1080p Signal schon mit 50/60Hz zu.
EDIT: Oder meinst Du mit "höchstens 30 Bilder pro Sekunde", dass höchsten 30 unterschiedliche Bilder pro Sekunde bei 1080p übertragen werden, da ja z.b. durch 3:2 Pulldown die gleichen Bilder mehrmals übertragen werden. Doch trotzdem müssen ja alle Bilder übertragen werden, auch wenn sie doppelt oder dreifach übertragen werden, um auf die 50/60Hz zu kommen.
Gruss, Carsten.
PatkIllA
2006-08-21, 11:00:57
ging mir eher um die Übertragung von Sender zum Receiver oder die Speicherung der Daten auf Datenträger.
Asmodeus
2006-08-21, 11:06:53
ging mir eher um die Übertragung von Sender zum Receiver oder die Speicherung der Daten auf Datenträger.
Ok, auf diesem Teilstück der Übertragung kenne ich mich nun gar nicht aus, deshalb auch meine Frage. Gibt es eigentlich irgendwo Quellen, wo man die Spezifikationen für die Übertragungsprotokolle von HDTV-Signalen vom Sender zum Receiver nachlesen kann?
Gruss, Carsten.
Ok, auf diesem Teilstück der Übertragung kenne ich mich nun gar nicht aus, deshalb auch meine Frage. Gibt es eigentlich irgendwo Quellen, wo man die Spezifikationen für die Übertragungsprotokolle von HDTV-Signalen vom Sender zum Receiver nachlesen kann?
Gruss, Carsten.
Google mal nach DVB-S2
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.