Building detection with decision fusion

1,047 views
882 views

Published on

航空画像をミーンシフトセグメンテーションしたのち,各セグメントを15種類の特徴量で建物か非建物かに分類.その15種の結果を合成し,最終的に各セグメントが建物かどうかを判断する.

Published in: Technology
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,047
On SlideShare
0
From Embeds
0
Number of Embeds
16
Actions
Shares
0
Downloads
6
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Building detection with decision fusion

  1. 1. Building Detection With Decision Fusion Caglar Senaras Mete Ozay Fatos T. Yarman Vural 13年10月5日土曜日
  2. 2. Goal • VHR (Very High Resolution)な衛星画像からの建物検出 • 近赤外写真や可視光写真を入力として用いる • 多くの特徴抽出/分類器を組合せて,分類器の精度を上げる (いわゆるアンサンブル学習の手法の一種) 建物マスクを作る航空写真から 13年10月5日土曜日
  3. 3. State-of-the-art methods • ルールベースの分類器を作っておく ➡屋根の矩形構造を表す形状ベース特徴を使うなど ➡不適切な領域を取り除いてから建物を含む領域に着目 • 知識ベースでルールを作るので,建物の大きさや形などに対する仮説 を用いる必要がある • 仮説の妥当性に全体の精度等が大きく依存する 教師なし [Sirmacek and Unsalan, Ok et al.] • 学習データから分類器を生成する ➡k近傍法やSVMsのパラメータを学習する • 特徴空間のデザインが重要 • 複数の分類器を合成しているケースもある 教師あり [Turker and Koc Sau, Inglada, Fauvel et al.] 13年10月5日土曜日
  4. 4. Proposed system リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  5. 5. Proposed system 建物検出に特化したセ グメンテーションがで きるように学習データ を使ってMean shiftの 際のバンド幅パラメー タを最適化して設定し てやる リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  6. 6. Mean shift segmentation 色の情報を使って簡単にセグメンテーションを行うための 非常に一般的な手法.実装も非常に楽. カラー画像 ,画素位置に関するバンド幅  ,画素値に関する バンド幅  とし, 画素位置     と画素値        を結合したベクトルに対してミーンシフトで最頻値の計算をする I hs hr (xi, yi) (Li, ui, vi) カーネル密度推定をする際の位置空間のバンド幅,色空間 のバンド幅  ,  それぞれをどうやって決めるか?が重要hs hr 学習データ内の既知の建物の領域の輪郭と,あるパラメータセットでMean shift segmentationした結果得られた領域の輪郭のカバー率を最大化する ✓j = (hsj , hrj , minAreaj) 小さいセグメントは捨てる 13年10月5日土曜日
  7. 7. Mean shift segmentation GTC✓j = (Db ✓j ) T #G |#G| SF✓j = (Db ✓j ) T #G (Db ✓j ) パラメータ           でMean shiftして得られた 建物セグメントの輪郭ピクセルの集合 ✓j = (hsj , hrj , minAreaj) 正解データ上の建物セグメン トの輪郭ピクセル集合 OSQ✓j = 2 (SF✓j )(GTC✓j ) SF✓j + GTC✓j ˆ✓ = arg max ✓j 2✓ OSQ✓j これを最大化するパラメータ セットを求める 建物検出に特化したミーンシフト セグメンテーション用パラメータ が得られる 13年10月5日土曜日
  8. 8. Proposed system リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  9. 9. Proposed system 近赤外画像の画素NIRと RGBのRの値を使って定 義したNormalized Difference Vegetation Indexを画素値として持 つ画像にOTSU二値化を して植物セグメントを決 定,NIR-R-Gの3チャン ネル画像をHSI変換して OTSU二値化で影セグメ ントを決定,それぞれを 除去する リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  10. 10. Elimination of vegetation RGB画像 近赤外画像 近赤外画像の画素値:NIR RGB画像のRの値:R NDVI = NIR R NIR + R0 Normalized Difference Vegetation Index NDVI画像に対してOtsu二値化を施して 植物の領域マスクを生成 13年10月5日土曜日
  11. 11. Elimination of shadow RGB画像 近赤外画像 近赤外画像の画素値:NIR RGB画像のRとGの値:R, G Ratio Map画像に対してOtsu二値化を施して 影の領域マスクを生成 NIR-R-G画像をRGB画像とみ なしてHSI変換する Ratio Map = S I S + I 13年10月5日土曜日
  12. 12. Elimination of vegetation and shadow segment あるセグメント  中の植物ピクセルの数:si Mv i あるセグメント  中の影のピクセルの数:si Ms i あるセグメント  中の全ピクセルの数 :si Mi あるセグメント  においてsi Mb i > Mi なら植物のセグメントとして廃棄 Ms i > Mi なら影のセグメントとして廃棄 ※λは判定の厳しさのパラメータ 13年10月5日土曜日
  13. 13. Proposed system リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  14. 14. Proposed system 様々な特徴検出器を用い て,全15種類の特徴を各 セグメントから抽出して いく リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  15. 15. Feature extraction Dˆ✓ = {si} N i=1 ˆ✓パラメータセット でMean shift segmentationした結果 ←N個のセグメント si(i = 1, 2, . . . , N) が得られたとする. K個の特徴検出器を使う s1 s2 s3 s4 s5 s6 sN s... 画像全体D (x1,k, y1) (x2,k, y2) (x3,k, y3) (x4,k, y4) (x5,k, y5) (x...,k, y...) (xN,k, yN ) (x6,k, y6) (特徴量,ラベル)のセットの集合F ⌧k 第k番目の特徴検出器  で各セグメントを,特徴量とそのセグメン トのラベルのタプルに写像(学習データから) ⌧k 学習データなの で各セグメント のラベルは既知 13年10月5日土曜日
  16. 16. Feature extraction 色特徴 8ビンのヒストグラムの例 R,G,B,NIRの4チャンネル画像それぞれのチャンネルの標準偏差 (よって4次元ベクトル) stdci 各カラーチャンネルのヒストグラム (8bin)を表す確率密度ベクトル(各 ビンに属するピクセル数の,そのセグ メント内の全ピクセル数に対する比. よって4x8=32次元ベクトル) hist pdvi 各チャンネルのヒストグラムの平均 (4チャンネルなので4次元ベクトル) hist meani 各チャンネルのヒストグラムの分散(4チャンネルなので4次元 ベクトル) hist variancei 各チャンネルのヒストグラムの歪度(4チャンネルなので4次元 ベクトル) hist skewnessi 各セグメント  から  で抽出する特徴一覧⌧ksi 13年10月5日土曜日
  17. 17. Feature extraction 色特徴 各チャンネルのヒストグラムのpdvのノルム(4チャンネルな ので4次元ベクトル) hist energyi 各チャンネルのヒストグラムごとのエントロピー(4チャン ネルなので4次元ベクトル) hist entropyi 以上,基本的にセグメントごとのヒストグラムの分布 の形を表す様々な統計量が色特徴として用いられる 各セグメント  から  で抽出する特徴一覧⌧ksi 13年10月5日土曜日
  18. 18. Feature extraction 形状特徴 areai 面積.セグメントのピクセル数の合計値. rectangularityi 矩形度.minimum bounding rectangleを出し て,(面積)/{(長辺の長さ)x(短辺の長さ)}で算出. axis lengthsi minimum bounding rectangleの長辺と短辺の長 さを要素にもつ2次元ベクトル 基本rectangularityを見ているだけ 各セグメント  から  で抽出する特徴一覧⌧ksi 13年10月5日土曜日
  19. 19. Feature extraction テクスチャ特徴 まずGray-Level Co-occurrence Matrix (GLCM)を計算する R,G,B,NIRの各チャンネルを分離し て4つのグレースケール画像とみる 各画像を8階調に量子化 0,45,90,135度方向それぞれに対 してCo-occurrence Matrixを計算 C x, y(i, j) = nX p=1 mX q=1 ⇢ 1, if I(p, q) = i and I(p + x, q + y) = j 0, otherwise 各セグメント  から  で抽出する特徴一覧⌧ksi 13年10月5日土曜日
  20. 20. Feature extraction テクスチャ特徴 GLCMから計算される4つの量 それぞれ各チャンネルごとに4次元ベクトルとして 算出されるので,4x4で16次元ベクトル 各セグメント  から  で抽出する特徴一覧⌧ksi 13年10月5日土曜日
  21. 21. Summary: Feature extraction 各セグメント  から  で抽出する特徴一覧⌧ksi 色特徴8つ,形状特徴3つ,テクスチャ特徴4つ 合計15個の特徴ベクトルを      で抽出した.⌧1, . . . , ⌧15 x1, x2, . . . , x15結果,       という15個のベクトルが1つのセグメ ントから得られる.それぞれを  と書く.すべてのベクト ルはそれぞれ異なる次元を持っている.行方向に結合したベ クトル        は,この論文では128次元. xi,k [x1, x2, . . . , x15] 13年10月5日土曜日
  22. 22. Proposed system リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  23. 23. Proposed system 抽出された特徴量たちを Fuzzy k-nearest neighborで各クラスへの 所属度を要素に持つ所属 度ベクトルへ写像 リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  24. 24. Feature classification 抽出された各特徴ベクトルはそれぞれ別々の分類器を用いて 建物(    )か背景(    )かのラベルを与えられる セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c 個の近傍を調べる. はファジー度のパラメータ.例えば2くらい µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 yi = 1 yi = 2 13年10月5日土曜日
  25. 25. Feature classification 抽出された各特徴ベクトルはそれぞれ別々の分類器を用いて 建物(    )か背景(    )かのラベルを与えられる セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c 個の近傍を調べる. はファジー度のパラメータ.例えば2くらい µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 の 個目の近傍のラベルがcなら1 でなければ0 jxi,k yi = 1 yi = 2 13年10月5日土曜日
  26. 26. Feature classification 抽出された各特徴ベクトルはそれぞれ別々の分類器を用いて 建物(    )か背景(    )かのラベルを与えられる セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c 個の近傍を調べる. はファジー度のパラメータ.例えば2くらい µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 の 個目の近傍のラベルがcなら1 でなければ0 jxi,k  と 番目の近傍の間の 特徴量のユークリッド距離 xi,k j yi = 1 yi = 2 13年10月5日土曜日
  27. 27. Feature classification 抽出された各特徴ベクトルはそれぞれ別々の分類器を用いて 建物(    )か背景(    )かのラベルを与えられる セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c 個の近傍を調べる. はファジー度のパラメータ.例えば2くらい µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 正規化項 の 個目の近傍のラベルがcなら1 でなければ0 jxi,k  と 番目の近傍の間の 特徴量のユークリッド距離 xi,k j yi = 1 yi = 2 13年10月5日土曜日
  28. 28. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 13年10月5日土曜日
  29. 29. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 要するに 13年10月5日土曜日
  30. 30. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 要するに = 2 とすると,右上部分は       なので,(⇢j(xi,k)) 2 j番目の近傍との距離が近ければ分子は大きくなる. 遠ければ分子は小さくなる. x1,k x2,k xi,k xj,k ⇢j(xi,k) ⇢2(xi,k) ⇢1(xi,k) . . . 個の近傍を調べる. 13年10月5日土曜日
  31. 31. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1   は,    のラベルがcのとき1,それ以外0なので 正規化項 で距離ファクターが割られることから, 個の近傍すべてがラベル cを持つなら値は1,そうでないときは同じラベルが近くにあればあ るほど大きな値になる(=所属度合いが高いとされる) l(·) ⌘j(xi,k)  →あらかじめk種類の特徴量空間にはラベル既知の学習データがマッピングさ れているので,Fuzzy k-nnの計算に使われる「近傍」は学習データから選ば れていることに注意 13年10月5日土曜日
  32. 32. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 要するに   は,    のラベルがcのとき1,それ以外0なので 正規化項 で距離ファクターが割られることから, 個の近傍すべてがラベル cを持つなら値は1,そうでないときは同じラベルが近くにあればあ るほど大きな値になる(=所属度合いが高いとされる) l(·) ⌘j(xi,k)  →あらかじめk種類の特徴量空間にはラベル既知の学習データがマッピングさ れているので,Fuzzy k-nnの計算に使われる「近傍」は学習データから選ば れていることに注意 13年10月5日土曜日
  33. 33. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 µ(xi,k) = [µ1(xi,k), µ2(xi,k)]所属度ベクトル: 建物クラスである度合い 非建物クラスである度合い xi,kセグメント から で抽出された特徴   はこのよう なベクトルとしてファジーに分類される si ⌧k 13年10月5日土曜日
  34. 34. Feature classification セグメント  のラベル  の値を  と書くと,si yi c xi,k特徴   の  への 所属度合い     はµc(xi,k) c µc(xi,k) = P j=1 l (⌘j(xi,k)) (⇢j(xi,k)) 2 1 P j=1 (⇢j(xi,k)) 2 1 µ(xi,k) = [µ1(xi,k), µ2(xi,k)]所属度ベクトル: 建物クラスである度合い 非建物クラスである度合い xi,kセグメント から で抽出された特徴   はこのよう なベクトルとしてファジーに分類される si ⌧k fuzzy k-nn という 手法 13年10月5日土曜日
  35. 35. Feature classification 単純に所属度合いの高いほうのクラスにセグメント  を分類する si µ(xi,k) = [µ1(xi,k), µ2(xi,k)]所属度ベクトル: 分類結果: この分類を行う,という写像= 分類器 を  と書くこ とにする.これまでの処理をまとめると, ⌥k si ⌧k ! xi,k ⌥k ! ˆyi,k ということ. ˆyi,k = arg max c µc(xi,k) 13年10月5日土曜日
  36. 36. Classifier performance   の精度は,特徴量とラベルのタプルの集合(つまり正解データ セット)である  の中に,推定されたラベル          がいくつ含まれるか,で定義できる ⌥k ˆyi,k(i = 1, 2, . . . , N)Fk (x1,k, y1) (x2,k, y2) (x3,k, y3) (x4,k, y4) (x5,k, y5) (x...,k, y...) (xN,k, yN ) (x6,k, y6) (特徴量,ラベル)の セットの集合Fk 各セグメント の特徴量 x1,k x2,k x3,k xN,k ˆyN,k ˆy3,k ˆy1,k ˆy2,k 推定された ラベル ⌥k ... ... ... ... ... いくつ 同じか? Perfk = (1/N) NX i=1 ˆyi,k (Fk) ⇢ 1, ˆyi,k 2 Fk 0, ˆyi,k /2 Fk 13年10月5日土曜日
  37. 37. Summary: Feature classification ここまでをまとめると I MSS(ˆ✓) ! Dˆ✓ = {si}N i=1 ⌧k ! {xi,k}N i=1 ⌥k ! {ˆyi,k}N i=1 画像 セグメント 特徴 ラベル ここでは K=15個ある ここでは K=15個ある あらかじめこの部分は学習データに対しても行われ ているため,K種類の特徴量空間それぞれにラベル 既知の特徴量がN個ずつ配置されている それを使ってFuzzy k-nnした結果をもとにラベルを算出 13年10月5日土曜日
  38. 38. Proposed system リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 13年10月5日土曜日
  39. 39. Proposed system リモートセンシング画像 Mean-shiftセグメンテーション 植物や影を思われるセグメントを除去 各セグメントから色,形,テクスチャ などの特徴を抽出 各特徴ごとに分類器へ入力して Decision spaceを構築 特徴量を合成して分類 特徴量ごとの所属度ベク トルを行方向に並べたメ タ特徴量ベクトルをさら に列方向に並べて作った 所属度行列を行方向に圧 縮=Fusionする方法を学 習し,各セグメントごと に最終的な2Dの所属度ベ クトルを算出し,クラス を決定する. 13年10月5日土曜日
  40. 40. Fusion space セグメントはN個あるので,上のメタ特徴ベクトルの集合は Fmeta = {µmeta (si)}N i=1 と書ける. µmeta (si) = [µ(xi,1), . . . , µ(xi,k), . . . , µ(xi,K)] ˆyi,k = arg max c µc(xi,k) する前の µ(xi,k) = [µ1(xi,k), µ2(xi,k)] あるセグメントに対して特徴量&分類器のセットの数(K)だけ得られるので µmeta (si) = [µ(xi,1), . . . , µ(xi,k), . . . , µ(xi,K)] のように横に連結して2K次元のベクトルが作れる 2K次元空間 :=Fusion space 上の1点が1つのセグメントを表す 2次元空間 :=Decision space 上の1点が1つの特徴量を表す 13年10月5日土曜日
  41. 41. Learning メタ特徴ベクトル空間(=Fusion space)に対して,クラス分類を行うメ タレイヤー分類器    を学習したい⌥meta メタ特徴ベクトルはセグメントごとにあるので,画像全体はその集合と して表される.これを縦に並べて行列にしたものを所属度行列Mとする M = 2 6 6 6 4 µmeta (s1) µmeta (s2) ... µmeta (sN ) 3 7 7 7 5 = 2 6 6 6 4 µ(x1,1) . . . µ(x1,K) µ(x2,1) . . . µ(x1,K) ... ... ... µ(xN,1) . . . µ(xN,k) 3 7 7 7 5 N ⇥ 2KMは     行列. 新しいデータに対して,学習データをもとに所属度ベクトルが計算され,これを 特徴量の種類分だけ横にならべてメタ特徴ベクトルが作られるので,行列Mは新 しいデータについて1意に計算される 13年10月5日土曜日
  42. 42. Learning 各セグメントの推定ラベル  が,正解ラベルcと等しいかどうかを 行列で表現したもの,対応クラスラベル行列Yを考える yi 結局,行列MはN個のセグメントのファジーな各クラスへの所属 度合いを色々な特徴量の観点から表したもの.Yは,N個のセグ メントのはっきりとした(0か1かの)所属度表現. N ⇥ 2Yは    行列. Y = 2 6 6 6 4 Y1(s1) Y2(s1) Y1(s2) Y2(s2) ... ... Y1(sN ) Y2(sN ) 3 7 7 7 5 Yc(si) = ⇢ 1, if yi = c 0, otherwise 13年10月5日土曜日
  43. 43. Learning MとYは形が違うので,MをZで変換して引き算可能にする min Z kMZ Y k2 と,学習問題は以下のように書ける! L2ノルム 変換行列Zこそが,K種類の特徴量を合成して2次元の所属度 ベクトルに落としこむという手続きそのもの 変換行列Zをどうやって決定するか?が学習の根幹. 13年10月5日土曜日
  44. 44. Learning として計算される. 特徴量Fusionのための変換行列Zの求め方いろいろ Z = M† Y Mの擬似逆行列(ムーア-ペンローズ)を とすると,変換行列Zは M† = (MT M) 1 MT Least-squares classifier (LSC) Fuzzy k-nearest neighbor (Fuzzy k-NN) メタ特徴ベクトルを学習データからも作っておけば,ベースレイ ヤー(色々な種類の特徴量をとってくるところ)でクラス所属度ベ クトル(2次元)を計算できるので,N x 2行列に変換できる Support Vector Machines (SVM) メタ特徴ベクトルを学習データから作り,メタ特徴ベクトル空間 (Fusion space)上でSVMで分類しておいて,それを使う. 13年10月5日土曜日
  45. 45. Summary: Learning 学習部分のまとめ セグメンテーションし,特徴量をK種類とって,各特徴量について クラス所属度ベクトルを出す.それを行方向に並べて作ったメタ特 徴量ベクトルを作る.それを列方向に並べて所属度行列Mを出す. という写像Zを学習データから決定 M = 2 6 6 6 4 µ(x1,1) . . . µ(x1,K) µ(x2,1) . . . µ(x1,K) ... ... ... µ(xN,1) . . . µ(xN,k) 3 7 7 7 5 この方向にどう圧縮するか 13年10月5日土曜日
  46. 46. Parameters 任意パラメータまとめ 影,植物領域を決定する際の,セグメントの面積に対する 影ピクセル数・植物ピクセル数の割合がどの程度ならそれ ぞれ影,植物と判断するか 特徴量をとってきたあとにFuzzy k-NNで所属度ベクトルを 出すが,そのときのファジー度 Fuzzy k-NNの際に,いくつの近傍を考慮するか,というk- NN部分のパラメータ  13年10月5日土曜日
  47. 47. Experimental results Original image Meta-layer decision (gray-scale) Ground truth mask 13年10月5日土曜日
  48. 48. Experimental results 各セグメントの特徴量を直接分類 特徴量のFusionの仕方(行列Z)を学習して 分類した方が精度が高い! 13年10月5日土曜日

×