Archiv verlassen und diese Seite im Standarddesign anzeigen : Gibt es hardware-beschleunigte Videoencoder von Nvidia
klumy
2006-11-11, 11:02:54
so ähnlich wie bei ATIs Avivo Encoder?
Ich glaub der Schein trügt. Avivo hilft nicht wirklich beim Encodier-Vorgang, sondern falls überhaupt, dann nur beim Decodier-Vorgang des gesamten Recodier-Vorganges.
Hast du beispielsweise ein Video in MPEG4 und willst es in MPEG2 umwandeln. Dann muss es erstmal decodiert werden, um in MPEG2 encodiert zu werden. Dabei ist der Decodier-Vorgang ohnehin nicht sonderlich anspruchsvoll. Und wer weis, ob der Umweg über die Grafikkarte dem Prozessor tatsächlich Entlastung bringt.
In Ganz speziellen Fällen, kann es dir wohl Vorteile bringen. Aber würde es einen echten Geschwindigkeitsvorteil versprechen, dann hätte ATI dafür stärker die Werbetrommel gerührt. Sehr wahrscheinlich ist es nur ein Feature, dass für zukünftige ATI-Grafikkarten vorbereitet wird und erst dann auch eine echte Mehrleistung bietet.
a) wollte klumy nicht wissen, ob und wie das bei ATi aussieht und
b) glaube ich das du Unrecht hast. Gerade beim Encodieren ist die X1k-Reihe mit diesem ATi-Tool sehr viel schneller als wenns der Prozessor alleine brechnet.
@Topic: Soweit ich weiß leider nicht. Bain auch immer weider mal am schauen, weil Nvidia ja ab und an gerne mal mit den eigenen PureVideo-Funktionen rumtönt. Zuerst hatte ich gedachte die Karten der Personal Cinema-Reihe könnten das in Hardware komprimierenn, dann hatte ich gehofft die Video-Engine der GeForce 6k-Reihe könnten das.
Ich würde gar nicht mal glauben das die Hardware das nicht könnte, wahrscheinlich gibts aus Gründen des Marketings einfach keine passende Software dazu.
a) wollte klumy nicht wissen, ob und wie das bei ATi aussieht und
b) glaube ich das du Unrecht hast. Gerade beim Encodieren ist die X1k-Reihe mit diesem ATi-Tool sehr viel schneller als wenns der Prozessor alleine brechnet.
Sorry, ich diskutiere nicht mit Gästen. Und vom "glauben" halte ich nicht viel. Hab mal an den Weihnachtsmann geglaubt, der wurde dadurch aber trotzdem nicht real. Daher bleib ich lieber beim "Wissen".
deekey777
2006-11-14, 19:24:08
Sorry, ich diskutiere nicht mit Gästen. Und vom "glauben" halte ich nicht viel. Hab mal an den Weihnachtsmann geglaubt, der wurde dadurch aber trotzdem nicht real. Daher bleib ich lieber beim "Wissen".
Wenn du weiterhin solche Sprüche wie gefettet ablieferst, wirst du mit niemandem in diesem Forum diskutieren.
joe kongo
2006-11-14, 21:31:27
Also gibt von NV nichts vergleichbares ?
Schadä
:|
Wenn du weiterhin solche Sprüche wie gefettet ablieferst, wirst du mit niemandem in diesem Forum diskutieren.
?
Ich esse kein Fleisch, trinke keinen Amaretto und diskutiere nunmal nicht mit Gästen. Ist das etwa verboten?
GrandAdmiralThrawn
2006-11-15, 12:41:30
Schön wäre ja eine Nutzung der Shader (sofern das wirklich etwas bringen kann, ich weiß es nicht) als zusätzliche Ressource für DivX/XviD/WMV/etc.. Encoding. Vielleicht könnte man multithreaded Encoder auch auf die GPU "ausdehnen"? Ja, sowas würde ich mir wünschen, genauso wie ich mir wünschen würde, daß Soundkarten in Hardware mp3/ogg/m4a/wma/etc. encoden können....
Also gibt von NV nichts vergleichbares ?
Schadä
:|
Vergleichbar zu was?
Schön wäre ja eine Nutzung der Shader (sofern das wirklich etwas bringen kann, ich weiß es nicht) als zusätzliche Ressource für DivX/XviD/WMV/etc.. Encoding. Vielleicht könnte man multithreaded Encoder auch auf die GPU "ausdehnen"? Ja, sowas würde ich mir wünschen, genauso wie ich mir wünschen würde, daß Soundkarten in Hardware mp3/ogg/m4a/wma/etc. encoden können....
Theoretisch würde es gehen, doch dafür müsste der jeweilige Codec der Grafikkarte angepasst werden, um auch auf der Grafikkarte zu laufen. Dabei würde es die Grafikkarte nicht interessieren, ob es sich um Bild-Material oder Audio-Daten handelt. Doch meines Wissens gibt es nicht einen einzigen, der so eine Anpassung erfahren hat (oder bald erfahren wird).
Aber vielleicht überrascht uns ja nVidia mit einem eigenen MPEG4-Codec, der dann die 128 programmierbaren Shader der GeForce 8800 GTX voll ausreizt.
joe kongo
2006-11-15, 14:14:41
Vergleichbar zu was?
Ati hat so nen Encoder.
Nein, den hat ATI nicht. Hier rechnet NUR die CPU.
Das kannst du auch mit jedem beliebigen anderen Software Encoder haben.
joe kongo
2006-11-15, 18:35:38
Egal, ist trotzdem 10mal schneller als alles andere
Ich glaub der Schein trügt. Avivo hilft nicht wirklich beim Encodier-Vorgang, sondern falls überhaupt, dann nur beim Decodier-Vorgang des gesamten Recodier-Vorganges.
...
Und wer weis, ob der Umweg über die Grafikkarte dem Prozessor tatsächlich Entlastung bringt.
...
In Ganz speziellen Fällen, kann es dir wohl Vorteile bringen. Aber würde es einen echten Geschwindigkeitsvorteil versprechen, dann hätte ATI dafür stärker die Werbetrommel gerührt. Sehr wahrscheinlich ist es nur ein Feature, dass für zukünftige ATI-Grafikkarten vorbereitet wird und erst dann auch eine echte Mehrleistung bietet.Für mich klingt das nicht danach, als ob du es schon mal tatsächlich versucht hättest. Eher nach reiner Spekulation.
Egal, ist trotzdem 10mal schneller als alles andere
10mal schneller? Ich fürchte du übertreibst ein klein wenig.
Und falls er überhaupt schneller ist, dann schneller als was?
ATI selbst beschreibt seine Software als typischen Media-Converter. Weiterhin schreibt ATI, dass diese Software im Control-Panel der X1000 GPUs zu finden ist. Und schließlich schreibt ATI noch, dass diese Software schneller konvertiert, als eine andere Software.
Doch ATI schreibt nicht, welcher andere Media-Converter dies ist. Auch schreibt ATI nicht, dass die GPU rechnet, weder encodieren, ja noch nicht einmal das sie decodieren. Ausserdem ist nur die Rede von der Software (das diese schneller ist, als eine andere Software), aber nicht von der Hardware.
Darüber hinaus schreibt ATI, dass jede vorhandene Codec zum codieren und decodieren verwendet werden kann (und davon gibt es hunderte). Das würde laut eurer Auffassung bedeuten, dass ATIs X1000 GPUs jeden beliebigen x86-CPU-Code ausführen können. Und dass auch noch "10mal schneller" als der Prozessor.
Das wäre ja richtig sensationell. Aber warum lässt man dann nicht gleich die GPU rechnen und spart sich den Prozessor?
Ich würde mich da gerne noch ein bisschen mehr einlesen. Hört sich ja richtig interessant an. Könntet ihr bitte die Links posten, von der Seite, von der ihr diese Informationen habt? Auf der ATI Seite konnte ich dazu nämlich nichts finden.
Vielen Dank im voraus... :smile:
Rehnquist
2006-11-16, 03:08:18
... Auch schreibt ATI nicht, dass die GPU rechnet, weder encodieren, ja noch nicht einmal das sie decodieren. Ausserdem ist nur die Rede von der Software (das diese schneller ist, als eine andere Software), aber nicht von der Hardware.
Ich würde mich da gerne noch ein bisschen mehr einlesen. Hört sich ja richtig interessant an. Könntet ihr bitte die Links posten, von der Seite, von der ihr diese Informationen habt? Auf der ATI Seite konnte ich dazu nämlich nichts finden.
Vielen Dank im voraus... :smile:
http://brightsidetech.com/newsletter/200601/whitepapers/Avivo_Whitepaper.pdf
Also ab Seite 8 bzw. 9 schreiben sie zumindest von "Hardware assisted" ...
Das liest sich schon so, als ob die Hardware da irgendwas tut. ;)
http://brightsidetech.com/newsletter/200601/whitepapers/Avivo_Whitepaper.pdf
Also ab Seite 8 bzw. 9 schreiben sie zumindest von "Hardware assisted" ...
Das liest sich schon so, als ob die Hardware da irgendwas tut. ;)
Tut sie ja auch (siehe Seite 8).
"Avivo Encode: Avivo-enabled products offer encoding capabilities at two levels. Analog capture products such as those based on the Theater 550 product have integrated compression hardware all Avivo playback products (ATI’s discrete graphics products and integrated graphics chipsets) offer hardware-assisted compression and transcoding, to facilitate media interchange."
Wenn man also encodieren möchte, braucht man eine ATI Theater. Eine 550 oder die neuere 650. Beide schaffen sie aber leider nur MPEG2 (naja, zumindest die neuere 650 schafft MPEG2, bei der 550 schweigt man sich aus). Alle anderen Avivo-Produkte (z.B. Grafikkarten) bieten wenigstens eine Teilweise-Unterstützung indem sie die Wiedergabe unterstützen und können somit zumindest das Recodieren fördern. Leider unterstützen sie laut dem Whitepaper auch nur die drei Codecs MPEG2, WMV9 und H.264. Und wenn keiner dieser Codecs genutzt wird, dann wird auch das Decodieren nicht über die Hardware realisiert.
Schade. Wie es aussieht kommen wir doch nicht ohne die gute alte CPU aus. Ich war schon kurz davor mir eine X1300 zu kaufen, die dann all meine Homevideos rucki-zucki encodiert hätte. ;D Naja, Hoffnung ist ja nichts schlimmes. Aber man sollte sich ihr niemals Hals-über-Kopf ergeben. Gerade der Hardware-Markt betreibt viel Augenwischerrei, aber einige lernen dies wohl erst mit der Zeit.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.