(a) (b) (c)
図4 (a) レベル制約付き推定のための擬似3 D 画像例(サイドバイサイド表示)と白レベル領域(赤枠) (b) 白レ
.
ベル領域における画素値の2次元色差空間表示(レベル制約付き推定の場合) (c) レベル制約なしの推定の場合.
.
正したものと真の色補正パラメータにより(誤差を含 図 1(b) はシミュレーションに用いた実際の3 D 画像
まない)右画像を色補正したものとの二乗誤差画像の をサイドバイサイド表示したものである.RGB 毎に既
ピーク SN 比(PSNR)を計算して評価する. 知の1次元アフィン変換により色変換した左画像を基
図 3(a) はシミュレーションに用いた擬似的な3 D 画 準画像として,右画像を揃えるように色補正処理を行
像例をサイドバイサイド表示したものである(シフト う.基準となる左画像の確率密度関数に,レベル飽和
量は d = 2.9% で 37 画素).左右画像の画素値(R)の によりクリップされた画素によるガマット誤差 [12] が
ヒストグラムから核関数により計算した確率密度関数 存在する場合でも,ロバスト M 推定により右画像の確
は図 3(b) のようになる.シフト量の絶対値が増すと, 率密度関数はマッチングしている(図 1(c)).推定した
ピーク SN 比がやや低下しているが,3 D 映像におけ 色補正パラメータにより色補正した右画像と真の色変
る快適な視聴範囲 [1] とされている d = ±2.9% の範囲 換パラメータにより色変換した右画像との二乗誤差画
では,ほぼ十分な結果が得られている.グラフ中のひ 像のピーク SN 比は 64.8[dB] であった.
とつの線分が1枚の画像における結果に相当している.
3 D 映像における時系列推定シミュレーション
図 4(a) の擬似3 D 画像例は,左画像の輝度を変換し
実際の3 D 映像2 における左映像を適当な色変換を
たものである.そのような左画像を基準として,右画像
行い,右映像を左映像に揃える色補正パラメータを推
の明るさを揃える.このとき,左右画像中の最大輝度
定する.図 5(b) は,3 D 映像のフレーム番号に対する
値を探索して対応付けて,最大輝度値の画素の色レベ
色補正パラメータの推定結果である.時間方向の正則
ルをレベル制約として課すことにより,カラーバラン
化を行った場合(赤線)と,正則化を行わずにフレー
スを保った色補正を試みる.推定した色補正パラメー
ム毎に独立に推定した場合(緑線)の両方の結果を重
タによる色補正画像中の白レベル領域(赤枠)の画素
ねて表示する.時間方向の滑らかさの制約を課した正
値を色差信号に変換して,2次元色差空間にプロット
則化による安定化の効果が見られる.
する.レベル制約を課さない RGB 毎の独立な色補正パ
ラメータ推定による結果では,2次元色差空間上のプ 8 まとめ
ロットに偏りが見られるが,レベル制約付き色補正パ
ラメータ推定による結果では,偏りがなくカラーバラ 3 D 映像における左右映像の色・明るさを揃えるた
ンスが保たれていることがわかる. めに,画素値のヒストグラムから核関数により確率密
実際の3 D 画像シミュレーション 度関数を計算し,その差を最小にする色補正パラメー
1枚の画像から生成した擬似的な3 D 画像ではなく, タをロバストに推定して色補正を行った.左右画像中
2台のカメラで撮影された実際の3 D 画像2 を用いる. の最大輝度値を探索して対応付けて,その色レベルを
左画像を適当な色変換する.そのような色変換を受け レベル制約として課すことにより,カラーバランスを
た左画像を基準画像として,右画像を左画像に揃える 保った色補正を行った.さらに,時間方向に滑らかさ
色補正パラメータを推定する.真の色補正パラメータ の制約を課すことにより時系列推定の安定化を行った.
は色変換パラメータになる.左右画像中の最大輝度値 今後の課題としては,映像信号で標準的に用いられ
を探索して対応付けて,最大輝度値の画素の色レベル る輝度色差色空間における色補正モデルによる色補正
をレベル制約として課す. も検討することである.色補正モデルとしては,簡易
な1次元アフィン変換モデルを用いたが,その他のモ
2(独)情報通信研究機構「超高精細ステレオ3 D 映像コンテン
ツ」より.http://3d-contents.nict.go.jp/ デルとして,高次数,多次元のモデルも検討したい.
6.
(a) (b)
図5 (a) 3 D 映像中の1フレームのサイドバイサイド表示.(b) 3 D 映像の色補正パラメータ(R)の推定結果.
参考文献 [12] J´n Moroviˇ, Color Gamut Mapping, John Wiley
a c
& Sons Ltd., August 2008.
[1] 3Dコンソーシアム(3DC)安全ガイドライン部 [13] 尾上 守夫・池内 克史・羽倉 弘之 編, 3次元映像
会,人に優しい3D普及のための3DC安全ガイド ハンドブック, 朝倉書店, 2006.
ライン,2010 年 4 月 20 日改訂. [14] メヒルダド・パナヒプル・テヘラニ,石川 彰夫,酒
[2] M. J. Black and P. Anandan, The robust es- 澤 茂之,小池 淳,The optimal color correction of
timation of multiple motions: parametric and multicamera systems, 電子情報通信学会技術報告,
piecewise-smooth flow fields, Computer Vision and 107-358, IE2007-94 (2007-11), 23–28.
Image Understanding, 63-1 (1996), 75–104. [15] T. Poggio and F. Girosi, Networks for approxima-
[3] The Blu-ray Disc Association (BDA), Blu-ray Disc tion and learning, Proceedings of the IEEE, 78-9
Association Announces Final 3D Specification, (1990), 1481–1497.
“Blu-ray 3DTM ” Expected to Reach Consumers in [16] E. Reinhard, M. Ashikhmin, B. Gooch and P.
2010, December 17, 2009. Shirley, Color transfer between images, IEEE
http://www.blu-raydisc.com/en.html Transactions on Computer Graphics and Applica-
[4] D. Comaniciu, V. Ramesh and P. Meer, Kernel- tions, 21-5 (2001), 34–41.
based object tracking, IEEE Transactions on Pat- [17] P. J. Rousseeuw and A. M. Leroy, Robust Regres-
tern Analysis Machine Intelligence, 25-5 (2003), sion and Outlier Detection, J. Wiley & Sons, NY,
564–575. 1987.
[5] B. K. P. Horn and B. G. Schunck, Determining [18] H. S. Sawhney and S. Ayer, Compact represen-
optical flow, Artificial Intelligence, 17 (1981), 185– tations of videos through dominant and multiple
203. motion estimation, IEEE Transactions on Pattern
[6] P. J. Huber, Robust Statistics, Wiley, 1981, 2004. Analysis Machine Intelligence, 18-8 (1996), 814–
[7] ISO/IEC JTC1/SC29/WG11, Introduction to 830.
multiview video coding, N9580, Antalya, Turkey, [19] B. W. Silverman, Density Estimation for Statis-
January 2008. tics and Data Analysis, London, Chapman and
[8] 木村 優太,延原 章平,松山 隆司,多視点画像の相 Hall/CRC, 1986.
互色較正,第 12 回画像の認識・理解シンポジウム [20] M. J. Swain and D. H. Ballard, Color index-
(MIRU2009) 講演論文集,松江(くにびきメッセ) . ing, International Journal of Computer Vision, 7-
[9] F. Maes, A. Collignon, D. Vandermeulen, G. Mar- 1 (1991), 11–32.
chal and P. Suetens, Multimodality image registra- [21] A. Vetro, P. Pandit, H. Kimata, A. Smolic and
tion by maximization of mutual information, IEEE Y.-K. Wang, Joint draft 8.0 on multiview video
Transactions on Medical Imaging, 16-2 (1997), coding, JVT document JVT-AB204, July 2008.
187–198. [22] P. Viola and W. M. Wells III, Alignment by
[10] 松永 力,最適コントラスト補正による視程障害画 maximization of mutual information, International
像の明瞭化,第 15 回画像センシングシンポジウム Journal of Computer Vision, 24-2 (1997), 137–
(SSII2009) 講演論文集,横浜 (パシフィコ横浜). 154.
[11] 松永 力,趙 延軍,和田 雅徳,カラーチャートを [23] K. Yamamoto, T. Yendo, T. Fujii, M. Tani-
用いた複数の再撮モニタとカメラの最適色補正,第 moto and D. Suter, Colour correction for multiple-
16 回画像センシングシンポジウム (SSII2010) 講演 camera system by using correspondences, 対応点を
論文集,横浜 (パシフィコ横浜). 用いた複数カメラの色補正, 映像情報メディア学会
誌,61-2 (2007), 213–222.