Archiv verlassen und diese Seite im Standarddesign anzeigen : CoreAVC 1.9.0 mit CUDA-Support
http://www.coreavc.com/index.php?option=com_content&task=view&id=27&Itemid=1
Falls es mal jemand ausprobieren will. Ich habe derzeit keine GeForce eingebaut um zu testen.
Skinner
2009-02-11, 07:30:06
http://www.coreavc.com/index.php?option=com_content&task=view&id=27&Itemid=1
Falls es mal jemand ausprobieren will. Ich habe derzeit keine GeForce eingebaut um zu testen.
Der Decoder ist Kostenpflichtig und mit dem Ausprobieren ist es da nicht so einfach. Mich juckt das aber nicht, da ich die Enwicklung der Software seit begin begleite und somit auch eine Lizenz habe =)
Konnte bisher nicht viel testen. Was im moment nicht funktioniert ist Interlaced Material. Ich hoffe jedoch, das dieses schnell gefixed wird.
Optisch schaut das Menü nun so aus.
http://www.abload.de/thumb/coreavcyler.jpg (http://www.abload.de/image.php?img=coreavcyler.jpg)
deekey777
2009-02-11, 11:45:39
Einige Comments zum neuen Decoder sind, dass die CUDA-Beschleunigung auch bei "Non-DXVA"-Videos (also Videos, wo die CPU die Decodierung übernehmen muss) funktioniert.
Die Core-Jungs veröffentlichen seit mehreren Releases gleich oder etwas später eine 14-Tage-Testversion, IMO nur eine Frage der Zeit.
Skinner
2009-02-11, 12:14:20
Einige Comments zum neuen Decoder sind, dass die CUDA-Beschleunigung auch bei "Non-DXVA"-Videos (also Videos, wo die CPU die Decodierung übernehmen muss) funktioniert.
Anders würde die CUDA Implementierung auch keinen Sinn ergeben.
florymonth
2009-02-11, 14:24:40
Hmm,wozu noch Intel Extremes,wo doch halb so teure Gpus so viel mehr leisten(dort eben,wo heute der Privatanwender noch leistungsstarke Hauptprozessoren braucht,also Video-und Bildbearbeitung).
Mordred
2009-02-11, 15:00:09
Intel Extremes sind auch nicht wirklich an den normalen Heimanwender gerichtet ;)
starfish
2009-02-11, 15:53:32
Meint ihr ATI gibt ihnen demnächst auch Unterstützung?
Jetzt wo Nvidia eingebaut ist, wie lange wird es wohl dauern bis ATI auch drinnen ist?
BlackBirdSR
2009-02-11, 16:31:18
Meint ihr ATI gibt ihnen demnächst auch Unterstützung?
Jetzt wo Nvidia eingebaut ist, wie lange wird es wohl dauern bis ATI auch drinnen ist?
Das kommt darauf an. Wenn AMDs Schnittstelle einfach genug zu implementieren ist und man dort genug Arbeitszeit und Interesse aufbringen kann. Cuda ist momentan eben hoch angesehen und Nvidia sehr bestrebt Support zu erhalten.
Zu Intel Extreme:
Wenn GPUs weiter im Gebiet der CPUs wildern, werden Intel und AMD entsprechende Produkte bringen müssen. Das läuft dann wohl auf das hinaus, was eh schon angedacht ist: Fusion und Co.
deekey777
2009-02-11, 16:42:48
Meint ihr ATI gibt ihnen demnächst auch Unterstützung?
Jetzt wo Nvidia eingebaut ist, wie lange wird es wohl dauern bis ATI auch drinnen ist?
Nvidia war so cool und hat die nötigen Docs und Tools freigegeben, mit denen die Entwickler über CUDA Zugriff auf den Videoprozessor haben (das hat so direkt nichts mit GPGPU zu tun). ATi hat bisher nichts entsprechendes getan.
Sven77
2009-02-11, 18:46:56
Hui, sehr geil :)
Taugt sowas eigentlich als GPU-Stabilitätstest? :naughty: FurMark reloaded.
MfG,
Raff
BlackBirdSR
2009-02-11, 19:56:16
Taugt sowas eigentlich als GPU-Stabilitätstest? :naughty: FurMark reloaded.
MfG,
Raff
Wenn du mitlesen würdest, statt komische Gesichter zu posten:
Man greift auf den Videoprozessor zu; Inwiefern dir das als Furmark-Reloaded taugt, entscheidest du.
Deinorius
2009-02-11, 20:36:55
Einige Comments zum neuen Decoder sind, dass die CUDA-Beschleunigung auch bei "Non-DXVA"-Videos (also Videos, wo die CPU die Decodierung übernehmen muss) funktioniert.
CUDA funktioniert doch erst ab den Geforce8 Karten und die haben meistens auch schon DXVA, auch wenn das bei den ersten nicht 100%ig funktionierte.
So richtig viel Sinn macht das nicht gerade. Weiß jemand, ob die gesamte Decoderarbeit an die GPU abgegeben wird, oder nur Teile davon? Es wäre nützlicher, wenn selbst schwache IGPs einen Teil der Dekodierarbeit der CPU abnehmen würden, was gerade Netbooks helfen würde. Leider bringt das dank der fehlen Funktionalität der IGPs so oder so nichts.
Naja, zumindest funktionieren die non-DXVA-Videos.
robbitop
2009-02-11, 20:45:55
Es macht Sinn bei mkv Containern (die waren nicht Videoprozessorbeschleunigt) und bei Anwendung von ffdshow/avisynth zur Bildverbesserung. Dort hat man nämlich keine Möglichkeit zur Nutzung von DXVA.
skampi
2009-02-11, 20:50:55
Es macht Sinn bei mkv Containern (die waren nicht Videoprozessorbeschleunigt) und bei Anwendung von ffdshow/avisynth zur Bildverbesserung. Dort hat man nämlich keine Möglichkeit zur Nutzung von DXVA.
Was hat das mit dem Container zu tun?
Chris Lux
2009-02-11, 20:55:20
per cuda hat man auch keinen zugriff auf den videoprozessor!
robbitop
2009-02-11, 20:55:32
Was hat das mit dem Container zu tun?
Für MKV gibt es, warum auch immer, keine Beschleunigung. Es liegt wirklich nur am Container.
Tyrann
2009-02-11, 21:01:33
im MPC-HC gehts
Deinorius
2009-02-11, 21:01:34
Für MKV gibt es, warum auch immer, keine Beschleunigung. Es liegt wirklich nur am Container. Blödsinn! Da hab ich anderes erlebt.
Aber da fällt mir ein, dass neuron2 ja DGAVCIndex, das über libavcodec läuft, nicht mehr weiterentwickeln will. Stattdessen will er CoreAVC nutzen. Das hingegen wäre ja doch noch ein sehr interessanter Aspekt. Den Leistungsvergleich möchte ich erleben. :cool:
AnarchX
2009-02-11, 21:02:58
per cuda hat man auch keinen zugriff auf den videoprozessor!
Doch: CUDA Video Extensions - NVCUVID.
deekey777
2009-02-11, 21:06:28
Für MKV gibt es, warum auch immer, keine Beschleunigung. Es liegt wirklich nur am Container.
Wenn du den richtigen Splitter hast und das Video mit "DXVA-Einstellungen" codiert wurde (sprich gewisse Spielregeln wurden eingehalten), dann geht die Beschleunigung sehrwohl (egal ob MPCHC-Decoder oder Cyberlinks oder ArcSofts).
CUDA funktioniert doch erst ab den Geforce8 Karten und die haben meistens auch schon DXVA, auch wenn das bei den ersten nicht 100%ig funktionierte.
So richtig viel Sinn macht das nicht gerade. Weiß jemand, ob die gesamte Decoderarbeit an die GPU abgegeben wird, oder nur Teile davon? Es wäre nützlicher, wenn selbst schwache IGPs einen Teil der Dekodierarbeit der CPU abnehmen würden, was gerade Netbooks helfen würde. Leider bringt das dank der fehlen Funktionalität der IGPs so oder so nichts.
Naja, zumindest funktionieren die non-DXVA-Videos.
Es macht schon Sinn, aber eher abseits der Wiedergabe: Es gibt nur wenige Encoder, die die Grafikkarte zum Decodieren nutzen, um so die Prozessorlast zu senken und so einen Performancevorteil zu ermöglichen (zumindest theoretisch, aber da sollen noch die Latenzen eine Rolle spielen). Genau diesen Weg kann man mittels DGAVCDecNV (falls ich mich irre, bitte korrigieren): DGAVCDecNV als Decoder, der auf der Grafikkarte läuft, und dann zB x264 als Encoder, der wiederum die CPU nutzt. Badaboom dagegen nutzt immernoch die CPU zum Decodieren (was aktuell nicht so schlimm ist).
Deinorius
2009-02-11, 21:10:55
Die meisten Videos im MKV-Container sind ja leider wirklich nicht DXVA-kompatibel. ;)
Da ist man froh, dass man selber Videos komprimiert.
robbitop
2009-02-11, 21:17:41
Es macht schon Sinn, aber eher abseits der Wiedergabe: Es gibt nur wenige Encoder, die die Grafikkarte zum Decodieren nutzen, um so die Prozessorlast zu senken und so einen Performancevorteil zu ermöglichen (zumindest theoretisch, aber da sollen noch die Latenzen eine Rolle spielen). Genau diesen Weg kann man mittels DGAVCDecNV (falls ich mich irre, bitte korrigieren): DGAVCDecNV als Decoder, der auf der Grafikkarte läuft, und dann zB x264 als Encoder, der wiederum die CPU nutzt. Badaboom dagegen nutzt immernoch die CPU zum Decodieren (was aktuell nicht so schlimm ist).
Und eben fürs Bildschärfen. Die ersparte Rechenzeit zum Decoding lässt sich gut in Filterscripts wie LSF oder SeeSaw investieren.
Deinorius
2009-02-11, 21:27:15
Bei derzeitigen Tests hat sich aber erwiesen, dass die Auslagerung der Dekodierung auf die GPU kaum nennenswerte Vorteile bringt. Ist immer noch besser als ohne, aber nicht so eklatant, dass bei Einsatz von SeeSaw die gleiche Leistung hervorkommt.
robbitop
2009-02-11, 21:33:34
Bei derzeitigen Tests hat sich aber erwiesen, dass die Auslagerung der Dekodierung auf die GPU kaum nennenswerte Vorteile bringt. Ist immer noch besser als ohne, aber nicht so eklatant, dass bei Einsatz von SeeSaw die gleiche Leistung hervorkommt.
Es müsste doch zumindest einen CPU Kern erheblich entlasten. Es sei denn, dass die Implementierung nur Teile der Dekodierung auf die GPU verschieben kann.
Wie groß ist der Vorteil denn, der sich daraus ergibt?
Deinorius
2009-02-11, 21:36:36
Hui, da muss ich erstmal den Thread durchstöbern. Soweit ich mich erinnere, hatte ich mir mehr erwartet. Aber ich würde auch lieber selber einen Test machen, nur hab ich ja keine nvidia GPU.
Der wirkliche Vorteil von DG_NV war immer das vorhandene Deinterlacing über die GPU, was dann schon noch mehr Vorteile bei 1080i bringen kann.
robbitop
2009-02-11, 21:57:21
Deinterlacing über die GPU ging über ffdshow auch noch irgendwie anders auch ohne diese Geschichte. Müßte ich im AVS-Forum nochmal schauen. Anyway, ich werde mir bald einen HTPC zusammenbauen, der Bildverbesserung mit DVB-C, DVD, XVid/DivX Material und HD-Material betreiben soll. Dank dem MT Plugin soll man wohl sogar von einem Quadcore profitieren können. Bei mir wird es wohl der Q9400 mit etw undervolting und einer GF9300 IGP im Antec Fusion µATX HTPC Case.
Nvidia war so cool und hat die nötigen Docs und Tools freigegeben, mit denen die Entwickler über CUDA Zugriff auf den Videoprozessor haben
Wuz? Hört sich sehr sehr sehr unglaubwürdig an :|
Deinorius
2009-02-11, 22:04:12
Im Vergleich mit CoreAVC via DirectShowSource (http://forum.doom9.org/showthread.php?p=1185410#post1185410) ist die GPU sogar schlechter, weil CoreAVC so schon gut genug ist. Aber wie gesagt gibts da noch den Vorteil vom Deinterlacing, wie man etwas weiter unten im Thread sehen kann.
Hier (http://forum.doom9.org/showthread.php?p=1185440#post1185440) ist doch ein anderer Test, wo der Vorteil schon größer ist. Kein Wunder bei einer BD-Source, da ist ja auch die Bitrate verflucht hoch.
Ich muss mich wohl an einen gänzlich anderen Test erinnert haben. Bringt schon was (http://forum.doom9.org/showthread.php?p=1185493#post1185493), auch wenns beim 2.pass nicht allzu viel ist. Besonders der Vermerk, dass die Qualität besser sei, ist interessant.
Dieser Test (http://forum.doom9.org/showthread.php?p=1185797#post1185797) blieb mir in Erinnerung, leider nur hinsichtlich der fps. Denn hier sieht man deutlich, dass DGAVCIndexNV sooo viel mehr bringt. Gott, ich will das gleiche für ATI. Deswegen würde mich auch ein Vergleich mit CoreAVC, das auch mittels DGAVCIndex läuft, sehr interessieren.
@robbitop
Deinterlacing über die GPU und ffdshow? o_O
Bei dem MT Plugin für Avisynth musst aber aufpassen, da einige Plugins nicht sehr davon profitieren können. Und einarbeiten musst du dich auch noch. Ich warte noch darauf, dass jemand eine vernünftige Zusammenfassung schreibt, den Thread dazu verfolge ich schon lange nicht mehr.
@Coda
Was meinst du? neuron2 konnte sich über den Support von nvidia nie beschweren.
@Coda
Was meinst du? neuron2 konnte sich über den Support von nvidia nie beschweren.
Ich meine, dass die Shader-ALUs auf den Videoprozessor NULL Zugriff haben.
Zumindest würde mich das verwundern. Evtl. machen sie zuerst mit CUDA das Decoding und dann Deblocking o.ä. auf dem Videoprozessor. Das dürfte aber eine ganz andere API sein dann.
Deinorius
2009-02-11, 22:21:39
Ich kann nur soviel sagen, dass im doom9-Thread (http://forum.doom9.org/showthread.php?p=1248359#post1248359) gerade berichtet wurde, dass ohne funktionierenden VP2 (also G80) kein CUDA aktivierbar ist. Zumindest bei CoreAVC kann ich sagen, dass beides zusammenhängt.
Und sofern ich mich nicht irre, hängt CUDA eigentlich vorwiegend von den Shader-ALUs ab.
Ja, und ich glaube wie ich beschrieben hab, dass sie eben den Decoding-Schritt mit CUDA machen und das ganze dann auf dem VP2 weiterbeareiten. Die ALUs wissen nichts von einem Videoprozessor.
deekey777
2009-02-11, 22:53:55
Wuz? Hört sich sehr sehr sehr unglaubwürdig an :|
http://developer.download.nvidia.com/presentations/2008/NVISION/NVISION08_ImageVideoCUDA_web.pdf (Ab Seite 29)
Oder meinst du, dass mein Posting so klingt, dass Entwickler irgendwas Exklusives bekommen haben? Nein, das ist ja für jeden zugänglich. Aber genau das ist, was ATi bisher nicht getan hat.
Oh okay. Kannte ich noch nicht. Danke.
Fragt sich was sie dann noch an eigenem Code haben. Weil eigentlich kann VP2 ja schon komplett H.264 dekodieren, oder nicht?
Deinorius
2009-02-11, 23:01:12
Eigentlich sollte der VP2 auch LV 5.0/5.1 H.264 Streams dekodieren können, zumindest überlegt man bei nvidia das mit einzubeziehen. Insofern stünde damit auch der Sinn von CoreAVC mit CUDA in Frage. (Allein schon, weils ja auf ATI eh nicht läuft.)
Skinner
2009-02-12, 00:25:44
Blödsinn! Da hab ich anderes erlebt.
Aber da fällt mir ein, dass neuron2 ja DGAVCIndex, das über libavcodec läuft, nicht mehr weiterentwickeln will. Stattdessen will er CoreAVC nutzen. Das hingegen wäre ja doch noch ein sehr interessanter Aspekt. Den Leistungsvergleich möchte ich erleben. :cool:
CUDA!!! Nix CoreAVC. Und DGAVCIndexNV gibt es schon seit Wochen ;)
Guckst Du hier: http://neuron2.net/dgavcdecnv/dgavcdecnv.html
Deinorius
2009-02-12, 00:36:53
Du hast mich falsch verstanden! Dass es DGAVCIndexNV gibt, weiß ich seit der Erstellung. Ich rede hier von der DGAVCIndex Version, die statt mit libavcodec mit CoreAVC laufen wird. neuron2 hat gesagt, dass er DGAVCIndex (libavcodec) nicht mehr weiterentwickeln will und stattdessen CoreAVC nimmt, da libavcodec zu viele Bugs hat und diverse Streams einfach zu viele Probleme machen.
Skinner
2009-02-12, 09:41:06
Ah ok, nun hab ich das verstanden.
So wie CoreAVC im moment läuft (und das kann ich bestätigen) taugt die lösung nicht viel, da CoreAVC mit CUDA bei zu vielen Streams komischerweise müll Produziert (Artefakte). Ich hab da erst gedacht der Encoder baut müll, beim umstellen auf den MPC internen Decoder wurde ich aber eines besseren belehrt.
Eigentlich sollte der VP2 auch LV 5.0/5.1 H.264 Streams dekodieren können, zumindest überlegt man bei nvidia das mit einzubeziehen
Unterstützt MPC-HC das nicht schon seit einigen Builds?
Skinner
2009-02-12, 09:58:22
Unterstützt MPC-HC das nicht schon seit einigen Builds?
Das wäre mir neu :|
Das wäre mir neu :|
Build 857:
http://mpc-hc.svn.sourceforge.net/viewvc/mpc-hc/?view=log
DxVA bei Level 5.1:
http://board.hd-area.org/showthread.php?t=4308
Benedikt
2009-02-12, 10:27:27
Offtopic hier, ich weiß, aber kann man vom Mediaplayer Home Cinema irgendwo SVN-/nightly-builds laden?
Wenn die Seite mal nicht down ist: http://www.xvidvideo.ru/
Ansonsten z. B.: http://tirnanog.fate.jp/mirror/Misc%20(not%20by%20celtic_druid)/MPC-Homecinema%20SVN/alexins/
Deinorius
2009-02-12, 18:27:45
@Skinner
Zumindest CoreAVC auch ohne CUDA hat einen Sinn für DGAVCIndex.
Build 857:
http://mpc-hc.svn.sourceforge.net/viewvc/mpc-hc/?view=log Hey, ist ja klasse. Aber sind die UVD bei ATI von nvidia so unterschiedlich, dass das nur bei nvidia funktioniert?
Gilt das eigentlich auch für die anderen DXVA-Filter, wie von Cyberlink?
Sephiroth
2009-02-12, 21:24:18
hm, Laut einem Hinweis in der Forum (http://forum.corecodec.com/viewtopic.php?f=3&t=1724), muss die Karte mindestens nen VP2 haben
NOTE: CUDA cards MUST ALSO support VP2 or VP3. Look at this chart for more info: http://en.wikipedia.org/wiki/PureVideo#Table_of_PureVideo_.28HD.29_GPUs
Damit schauen 8800 Ultra, 8800 GTX und 8800 GTS (320/640MB) Besitzer wie ich natürlich in die Röhre. :(
Als Treiber braucht man auch mind. den 181.69 (oder die neue 182.05 beta), das steht interessanterweise nur im Installer!
Mal sehen ob es trotzdem was bringt ... :(
deekey777
2009-02-12, 21:39:33
Ohne funktionierenden VP2/VP3 wird das nichts.
Sephiroth
2009-02-12, 23:37:29
Wie uncool :usad:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.