F
Ffm Knackarsch
Guest
Hätte nicht gedacht, daß da noch was kommt. Also ich habe bezgl. Videobeschl. aus Jux ein bischen gestöbert und muß dir leider schlechte, bzw. für mich gute, Neuigkeiten bringen. Nvidia führt diese Technik unter dem Namen "PureVideo" erstmals mit der GF6XXX-Reihe bereits Q2 2004 ein (demnach also auch meine GF7600GS). Bei ATI nennt sich dies ATI AVIVO und kommt erstmals Q4 2005 mit der X1000 Serie zum Einsatz.
http://en.wikipedia.org/wiki/PureVideo
http://en.wikipedia.org/wiki/ATI_Avivo
Das Problem ist aber, was ich auch bereits angesprochen hatte, daß man von der Technik nur profitiert, wenn du Filme mit kompatibler/zertifizierter PlayerSoftware abspielst, also meistens kommerziele Software wie Cyberlink DVD oder auch MediaCenter, die mit Closed Source Codecs ausgeliefert werden. OpenSource Player wie VLC,MPC,GOM,usw. sind per default mit OpenSource Codecs (libavc,ffmpeg-mt64) ausgestattet. Das sind aber pure Softwarecodecs und können nicht auf die GPU zugreifen, weil die nicht mit den Treibern (da Closed Source) kompatibel sind. Allerdings kannst du ja bei den Videofiltereinstellungen die Codecs austauschen, also OpenSource Codecs durch die ClosedSource Codecs ersetzen, dann hast du auch mit VLC&Co HW beschl.
Nachteil, damit funktionieren dann die OpenSource Codierten Filme nicht mehr,also xVid,X.264 usw., die lassen sich nämlich nur mit den OS Codecs dekodieren.
Zum 8910,
"Und was die Bitrate angeht, so möchte ich an dieser Stelle schreiben, dass diese im ersten Moment nicht wichtig ist weder die Audio- noch die Videobitrate"
------
"Mein N95 8gb nimmt Videos in VGA auf bei flüssigen 30 Fps in MP4 auf, wobei die Audioabtastrate bei 48000Hz liegt. Die Videobitrate liegt bei meinem Beispielvideo bei ca 3000 kb/s. Beim I8910 HD sollten die Videos mit 24 Fps aufgezeichnet werden (sie liegen aber real bei 20-22 Bildern pro Sekunde), wobei der Audicodec AAC benutzt wird und die Abtastrate bei 32000 Hz liegt. Der Ton ist qualitativ nicht so hochwertig wie bei meinem N95 8gb. Die Videobitrate schwankt im Beispielvideo von 8000 kb/s bis 13000 kb/s und somit werden deutlich mehr Informationen übertragen. Die maximale Audiobitrate liegt bei 250 kb/s."
__________
Die Bitrate ist das entscheidende Leistungsmaß der Dekoderchips und würde Klarheit in die Sache bringen.
Weiß nicht wo du beim VLC geschauht hast aber der zeigt Eingangs und Ausgangswerte an, inreressant wären hier die statischen Eingangswerte, da schwankt nichts, letzteres ist nur was der VLC momentan abspielt und das schwankt nunma.
Du kannst aber auch selber den Durchschnittswert berechnen.
Dazu nimmst du mehrere Videos in 2 Formaten auf mit max Qualität und gleichem Codec.
1.Format D1
2.720p
Am besten machst du jeweils mehere unterschiedlich lange Videos, denn was wir hier brauchen ist die Größe der Videos und die entsprechende länge, also Zeit.
Damit kannst du dann die Bitrate berechnen, und ich gehe mal davon aus, daß die Bitrate von D1 und 720p gleich (+/- Schwankung) sein werden.
http://en.wikipedia.org/wiki/PureVideo
http://en.wikipedia.org/wiki/ATI_Avivo
Das Problem ist aber, was ich auch bereits angesprochen hatte, daß man von der Technik nur profitiert, wenn du Filme mit kompatibler/zertifizierter PlayerSoftware abspielst, also meistens kommerziele Software wie Cyberlink DVD oder auch MediaCenter, die mit Closed Source Codecs ausgeliefert werden. OpenSource Player wie VLC,MPC,GOM,usw. sind per default mit OpenSource Codecs (libavc,ffmpeg-mt64) ausgestattet. Das sind aber pure Softwarecodecs und können nicht auf die GPU zugreifen, weil die nicht mit den Treibern (da Closed Source) kompatibel sind. Allerdings kannst du ja bei den Videofiltereinstellungen die Codecs austauschen, also OpenSource Codecs durch die ClosedSource Codecs ersetzen, dann hast du auch mit VLC&Co HW beschl.
Nachteil, damit funktionieren dann die OpenSource Codierten Filme nicht mehr,also xVid,X.264 usw., die lassen sich nämlich nur mit den OS Codecs dekodieren.
Zum 8910,
"Und was die Bitrate angeht, so möchte ich an dieser Stelle schreiben, dass diese im ersten Moment nicht wichtig ist weder die Audio- noch die Videobitrate"
------
"Mein N95 8gb nimmt Videos in VGA auf bei flüssigen 30 Fps in MP4 auf, wobei die Audioabtastrate bei 48000Hz liegt. Die Videobitrate liegt bei meinem Beispielvideo bei ca 3000 kb/s. Beim I8910 HD sollten die Videos mit 24 Fps aufgezeichnet werden (sie liegen aber real bei 20-22 Bildern pro Sekunde), wobei der Audicodec AAC benutzt wird und die Abtastrate bei 32000 Hz liegt. Der Ton ist qualitativ nicht so hochwertig wie bei meinem N95 8gb. Die Videobitrate schwankt im Beispielvideo von 8000 kb/s bis 13000 kb/s und somit werden deutlich mehr Informationen übertragen. Die maximale Audiobitrate liegt bei 250 kb/s."
__________
Die Bitrate ist das entscheidende Leistungsmaß der Dekoderchips und würde Klarheit in die Sache bringen.
Weiß nicht wo du beim VLC geschauht hast aber der zeigt Eingangs und Ausgangswerte an, inreressant wären hier die statischen Eingangswerte, da schwankt nichts, letzteres ist nur was der VLC momentan abspielt und das schwankt nunma.
Du kannst aber auch selber den Durchschnittswert berechnen.
Dazu nimmst du mehrere Videos in 2 Formaten auf mit max Qualität und gleichem Codec.
1.Format D1
2.720p
Am besten machst du jeweils mehere unterschiedlich lange Videos, denn was wir hier brauchen ist die Größe der Videos und die entsprechende länge, also Zeit.
Damit kannst du dann die Bitrate berechnen, und ich gehe mal davon aus, daß die Bitrate von D1 und 720p gleich (+/- Schwankung) sein werden.