DVCについてもう少し考えてみた

現状のDVCは階層符号化と等価である,ということは分かった.でも,これは多端子理論において,必ず1つの端子は観測値そのものを送信する,という初期の問題設定と同じではないのか.むしろ,適用するべきはCEO問題と呼ばれる全てが同じ量だけ情報を送って,そこから全体像を把握する,という設定ではないのかな.

多分,f_(t) (x,y)=f_(t-1) (x+dx,y+dy)+N_G(x,y)が成り立つモデルではこれで行けると思う.つまり,tフレーム目はt-1フレーム目の画素毎の位置ずれで表される.ただし,画素毎にノイズが付加される.MAP推定とかでも似たような式がでてきたな.とりあえず,受信側でdxとdyを総当たりで列挙していくイメージ.実際にはLDPCなどで高速に推定されるはず.

このモデルはいわゆるイントラ符号が考慮されていない.だから,容易に破綻する.そこで,前フレームに存在しなかったところは「バースト誤り」が生じて送られてこなかったと見なせないだろうか.そうすると,かなり誤り訂正符号の理論を適用できると思うんだが.あくまで確率的な話なので,イントラが大部分を占めると,訂正しきれないので問題.これはもう少し別の次元なので保留.実際,イントラかどうかを1枚だけ見ても分からないので,エッジの周辺だけ符号化率を低くするとかの工夫が良いのではないのかな.

それと,誤り訂正符号そのものは圧縮にならない.基本的に符号を増やして冗長性を確保するもの.ここは私の理解が不十分なんだが,2つの可能性がある(2つ目は今気が付いた).1つは,送信符号自体にオリジナルの情報が陽な形で含める.受信符号のうちオリジナル部分は劣化したと考えて,適当な予測画像を当てはめてやる.まぁdxとdyを推定しているのと等価だな(これを動き探索と呼ぶのは語弊があるよ・・・.やっぱり総当たりと言おうよ).これはチュートリアル講演の内容とかなり合致する.もう一つは,量子化を粗くし,その時点で十分な圧縮率が得られている.さらに1/2や5/6の符号率にしても,十分な性能が得られる可能性(もしかして,Wyner and Zivの理論はこういう事なのかな.Slepian and Wolfの前処理,後処理に量子化器をくっつけただけに見えるのでよく分かってない).

まぁ,そんなわけで,JAXAの金子さんの手法が実はかなり良い線を行っているのではないかと思ったりしている.変に画像畑出身じゃないので.私も実験してみたいのだが,LDPCの作り方とSum-Productの実装が十分理解できない.これがわかればちょろっと手元で実験できるのになぁ.(和田山先生のサイトは閉鎖されちゃったの?Googleキャッシュに寂しく残っているだけ・・)