SlideShare a Scribd company logo
1 of 73
Download to read offline
國防大學理工學院資訊工程學系
           資訊科學碩士班
            碩士學位論文



    運用擴增實境技術建立數位學習環境




      研    究      生 : 李 正 豪
      指 導      教 授 : 王 順 吉




中 華 民 國   一 O O    年   五   月   九   日
碩士學位論文指導教授推薦書




國防大學理工學院資訊工程學系資訊科學碩士班 李正豪 君所提之論文

運用擴增實境技術建立數位學習環境 係由本人指導撰寫,同意提付審查。




           此   致




系主任




                   指導教授 :

                   日    期 :   100 年   月   日

                   ii
iii
誌謝


  本研究論文之完成,首先感謝恩師王順吉老師悉心無私教誨、耐心指導與
督促,得以順利完成,使本人不僅能在學識上有所獲益,更能在為人處世及事
理分析等各方面更成熟穩健,師恩浩蕩,特於卷首致上最誠摯的謝意!
  論文口試期間,幸蒙銘傳大學資電學院賈叢林院長、台北大學資訊工程學
系黃俊堯主任及本院賴義鵬教授、陳丙堃教授,鼎力斧正,使論文更完整,衷
心感謝。在學習過程中,感謝實驗室智仁、鼎捷學長於課業及研究 領域的指導,
以及鍾德煥同學與陳昭瑞同學的互相勉 勵,加上佳萱、宣羽和捷文同學,蒼昱、
周志偉及沈學弟在論文撰寫及口試期間的多方協助,在此一併誌謝。
  衷心感謝生育與教養的父母,於求學過程中給予的鼓勵。也感謝憲兵司令
部刑事鑑識中心同事給予求學階段各項幫助,使本人能無後顧之憂在課業上專
心研究。最後謹將這份成果獻給每一位幫助過我的貴人,有你們支持及鼓勵,
才能使本論文達臻善臻美。




                 iv
摘要


  隨著擴增實境技術日趨成熟,為了製作更活潑的數位教材或建立更有效率
的數位學習環境,運用擴增實境技術建立數位學習環境之應用與日俱增。目前
相關應用大部分均侷限在標記(marker)擴增實境技術,但無標記(markerless)
擴增實境技術使用上更具彈性,不必受限於標記的使用,應用層面更廣。視覺
追蹤技術是擴增實境重要底層核心技術之一,但在實際應用上會受周邊環境光
源、辨識圖樣角度、影像解析度、辨識圖樣材質等 4 項因素影響。另外,在「無
標記擴增實境數位學習系統」相關應用中追蹤物件的複雜度及移動速度更會影
響追蹤辨識效果,因為好的物件辨識與追蹤效能,學習者在操作系統時,才可
以隨心所欲的移動辨識的物件,以增加系統的實用性。
  本論文主要提出如何運用擴增實境的技術來製作數位教材及建立數位學習
環境,並分析現有運用在「無標記擴增實境數位學習系統」追蹤技術的限制因
素,進而提出能追蹤各式真實物件及降低物件移動速度對物件追蹤影響之無標
記物件追蹤技術。本文所提之方法就技術層面而言能提昇無標記擴增實境的實
用性及普及性;就應用層面而言可瞭解製作擴增實境數位教材及實現數位學習
環境相關問題。例如運用於國軍軍事裝備維修上,可有效降低人員訓練時間及
成本,並能迅速維修以提昇裝備妥善率;用於軍中的戰術教學,可使內容更加
生動,以提昇學習者之學習興趣。


關鍵字:標記擴增實境,無標記擴增實境,數位學習,虛擬實境,特徵追蹤




                     v
ABSTRACT


    As the techniques of creating augmented reality become more advanced, there is
an increase in its use to create engaging digital teaching materials or a more efficient
e-Learning environment. Recently, most relevant applications are limited to
marker-based augmented reality techniques. However, markerless augmented reality
techniques are more flexible and not limited by the use of markers, providing a
broader range of applications. Visual tracking techniques is a critical core technique
of augmented reality, and its use is often affected by the four factors of
environmental lighting, image angle recognition, image resolution and image texture
recognition. On the other hand, in a “markerless augmented reality e-Learning
system”, the complexity and moving speed of the tracked object will also strongly
affect tracking recognition. Only with high quality object identification and tracking
abilities will the learners recognize objects and move them as they wish when
operating the system, making it more applicable for its purpose.
    The purpose of this thesis is to provide recommendations on the use of
augmented reality techniques to create digital learning material and e-Learning
environments, and to analyze limiting factors in tracking techniques currently
employed in “markerless augmented reality e-Learning systems”. We also
recommend apply object tracking techniques for real-time tracking in which object
speed has reduced effects on tracking ability. The methods that this study suggests
will be able to raise the practicality and popularization of markerless augmented
reality systems on a technical basis. On the basis of application, the methods will
also allow people to understand the relevant issues in the creation of augmented
reality digital learning materials and e-Learning environments. For example, when
applied to the military equipment maintenance in the army of Taiwan, such digital
learning schemes can effectively reduce personnel training time and costs, helping to

                                           vi
improve maintenance quality and hence the performance of military equipments.
When applied to training schemes of military tactics, the contents can be made
dynamic to increase learners’ motivation and interest.


Keywords: Marker-based Augmented Reality, Markerless Augmented Reality,
e-Learning, Virtuality Environment, Feature Tracking。




                                          vii
目錄
誌謝 .............................................................................................................................. iv
摘要 ............................................................................................................................... v
ABSTRACT ................................................................................................................. vi
目錄 ............................................................................................................................ viii
表目錄 .......................................................................................................................... xi
圖目錄 ......................................................................................................................... xii
1.     緒論 ....................................................................................................................... 1
       1.1.        研究動機 .................................................................................................. 1
       1.2.        研究目的 .................................................................................................. 2
       1.3.        論文架構 .................................................................................................. 3
2.     文獻探討 ............................................................................................................... 4
       2.1.        數位學習 .................................................................................................. 4
               2.1.1. 數位學習緣起.................................................................................... 4
               2.1.2. 數位教材類別.................................................................................... 5
               2.1.3. 數位學習趨勢.................................................................................... 7
               2.1.4. 小結.................................................................................................... 8
       2.2.        擴增實境 .................................................................................................. 8
               2.2.1. 擴增實境緣起.................................................................................... 9
               2.2.2. 擴增實境基本原理 ......................................................................... 10
               2.2.3. 擴增實境類別.................................................................................. 12
               2.2.4. 擴增實境技術在數位學習之應用 ................................................. 14
               2.2.5. 小結.................................................................................................. 16
       2.3.        無標記擴增實境追蹤技術分析 ............................................................ 16


                                                               viii
2.3.1. 現有開發平台.................................................................................. 16
            2.3.2. 影響追蹤技術因素分析 ................................................................. 18
     2.4.       物件偵測與追蹤相關技術 .................................................................... 19
            2.4.1. 移動物偵測...................................................................................... 19
            2.4.2. 物件追蹤.......................................................................................... 23
            2.4.3. 物件特徵擷取.................................................................................. 25
            2.4.4. 座標轉換.......................................................................................... 37
3.   無標記擴增實境視覺追蹤系統 ......................................................................... 39
     3.1.       影響無標記擴增實境視覺追蹤辨識因素分析 .................................... 39
            3.1.1. 物件複雜度...................................................................................... 39
            3.1.2. 物件移動速度.................................................................................. 40
            3.1.3. 小結.................................................................................................. 41
     3.2.       無標記擴增實境視覺追蹤技術 ............................................................ 41
            3.2.1. 框選追蹤物件.................................................................................. 42
            3.2.2. 色彩空間轉換.................................................................................. 42
            3.2.3. 物件偵測追蹤.................................................................................. 42
            3.2.4. 定位顯像.......................................................................................... 47
     3.3.       運用無標記擴增實境技術建立數位學習環境 .................................... 50
            3.3.1. 先期準備階段.................................................................................. 50
            3.3.2. 系統開發階段.................................................................................. 51
            3.3.3. 完成測試階段.................................................................................. 51
4.   全文下載 ............................................................................................................. 52
     4.1.       無標記擴增實境實驗平台建置與追蹤技術驗證 ................................ 52
     4.2.       運用擴增實境技術建 立數位學習環境 ................................................ 53


                                                          ix
參考文獻 ..................................................................................................................... 55
論文發表 ..................................................................................................................... 59
自傳 ............................................................................................................................. 60




                                                                x
表目錄


找不到圖表目錄。




            xi
圖目錄


圖 2.1:數位教材種類 ................................................................................................ 5
圖 2.2:虛擬連續性的理論[6] ................................................................................... 9
圖 2.3:擴增實境的基礎架構[9] ............................................................................. 10
圖 2.4:擴增實境運作步驟 ...................................................................................... 11
圖 2.5:標記圖樣[10] ............................................................................................... 12
圖 2.6:標記擴增實境示意圖 .................................................................................. 13
圖 2.7:標記擴增實境運作流程圖 .......................................................................... 13
圖 2.8:無標記擴增實境示意圖 .............................................................................. 14
圖 2.9:無標記擴增實境運作流程圖 ...................................................................... 14
圖 2.10:電磁學教學系統[14] ................................................................................. 15
圖 2.11:擴增實境坦克大戰遊戲[15] ..................................................................... 15
圖 2.12:美軍維修LAV-25A1 裝甲運兵車[16]...................................................... 16
圖 2.13:ARToolKit NFT無標記示意圖[12] .......................................................... 17
圖 2.14:光流法示意圖[25] ..................................................................................... 21
圖 2.15:時序差異法示意圖[28] ............................................................................. 21
圖 2.16:背景相減法結果圖[29] ............................................................................. 23
圖 2.17:高斯差分濾波示意圖[34] ......................................................................... 28
圖 2.18:極值搜尋示意圖[34] ................................................................................. 28
圖 2.19:特徵點描述示意圖[34] ............................................................................. 31
圖 2.20:GLOH特徵描述子示意圖[36] .................................................................. 32
圖 2.21:積分影像運算示意圖[39] ......................................................................... 33
圖 2.22:積分影像計算矩形框示意圖[38] ............................................................. 33


                                                       xii
圖 2.23:SIFT與SURF金字塔尺度空間建立示意圖: ......................................... 34
圖 2.24:主方向示意圖[38] ..................................................................................... 36
圖 2.25:特徵點描述示意圖[38] ............................................................................. 37
圖 3.1:物件複雜度對物件辨識追蹤之影響: ...................................................... 40
圖 3.2:物件移動速度對追蹤物件之影響: .......................................................... 40
圖 3.3:無標記擴增實境系統流程圖 ...................................................................... 41
圖 3.4:物件偵測追蹤流程圖 .................................................................................. 43
圖 3.5:SIFT與SURF特徵點表示圖:.................................................................... 44
圖 3.6:金字塔L-K光流法連續追蹤表示圖 ........................................................... 46
圖 3.7:單應性計算示意圖 ...................................................................................... 47
圖 3.8:定位顯像流程圖 .......................................................................................... 47
圖 3.9:物件近距離擴增實境畫面 .......................................................................... 49
圖 3.10:物件中距離擴增實境畫面 ........................................................................ 49
圖 3.11:物件遠距離擴增實境畫面 ........................................................................ 50




                                                   xiii
1. 緒論

1.1. 研究動機
   21 世紀以來由於網際網路的蓬勃發展,使得地理上的距離不再是距離,人
們籍由電腦科技的進步使得在資訊搜集上更加容易,讓世界各地的人們在知識
的獲得上,不再有時間和空間的落差。在這個知識經濟的時代,如何有效且快
速的學習,可以說是生存在 21 世紀的人們,一個很重要的課題,而「數位學習」
是提供學習者一個没有環境、時間、空間及地域限制,且更有效率及學習自由
度高的途徑及方法,因此「數位學習」成了人們快速學習的方法之一。
   由於數位學習與傳統課堂教學方式不同,現今數位學習大多由學習者經由
網際網路來進行學習,相較傳統課堂教學少了一份真實感,故在數位學習的教
材製作上,就變的相當重要。2008 年吳聲毅在「數位學習觀念與實作」書中[1],
依教材呈現的方式不同,將教材分成網頁式、演講式、模擬式、視訊式及電子
書等 5 類教材,其中演講式、模擬式及視訊式等 3 類教材可使用於正式授課,
而網頁式及電子書等 2 類教材可使用於補充教學。
   在2010年美國新媒體聯盟(The NEW MEDIA CONSORTIUM)和主動學習教
育機構(EDUCASE Learning Initiative)「The Horizon Report 2010 Edition」報告中
[2],提出未來五年的數位學習科技技術發展6項預測,其中「行動運算(Mobile
Computing)」可以提供人們隨心所欲在任何地方上網,而「簡單擴增實境(Simple
Augmented Reality)」讓學習者有身歷其境的感受, 逹到快速且有效的學習。故
近年來已有許多研究提出相關應用,如運用在英語學習、電磁學教學、化學元
素的化學分子結構、太陽系的運轉、汽車維修教學及球類運動教學等等。
   而其中擴增實境系統的底層技術是以影像處理之物件追蹤為核心,若以視
覺追蹤技術來分類的話,可分為「標記 (Marker)」或「無標記 (Markerless)」2


                                 1
大系統。近年來擴增實境在「數位學習」的應用絶大多數都為「標記」系統,
原因不外乎大多數開發平台都為使用「美國華盛頓大學人機介面實驗室」所開
發出來的ARToolkit,而ARToolkit本身所使用就是「標記」系統,故相對所開發
出來的系統,均為「標記」系統。然就運用於「數位學習」上來說,要開發出
操作人性化、內容豐富,且多樣化的教材系統,顯然「標記」較為不適用,因
為會受限於使用上不方便之問題,例如:操作介面較不美觀,進而影響學習系
統的實用性。
  綜上所述,要開發出操作介面可以更加便利、親切及人性化,且實用性高的
擴增實境數位學習系統,本文建議應採用「無標記」系統,因為其受限於「標
記」之限制,在追蹤、辨識及定位的物件,可由系統開發者或學習者自行設定,
使用上更為方便,實用性也隨之提昇。
  無標記擴增實境之物件追蹤辨識正確與否,易受周邊環境光源、辨識圖樣
角度、影像解析度以及辨識圖樣材質等 4 點因素影響[3]。而且物件本身的複雜
度及移動速度更會影響系統的實用性,高複雜度物件表示「多特徵點」、「與
環境顏色成強烈對比」或「明顯紋理與輪廓」,這類物件容易從影像中辨識與
追蹤。反之,低複雜度物件則表示「較少特徵點」、「與環境顏色相似」或「無
明顯紋理與輪廓」,這類物件不易從影像中辨識與追蹤。另外在即時追蹤辨識
中,系統運算速度必須夠快,否則移動物件速度太快,可能造成在系統運算完
畢後,而物件已不在該位置,形成誤判。故在「無標記擴增實境數位學習系統」
中物件的複雜度分析及移動速度之影響與評估是相當重要 事先瞭解物件特性
                         ,        ,
學習者在操作系統時,才可以正確使用辨識的物件,以增加系統的實用性。


1.2. 研究目的
  現行擴增實境數位學習系統大多採用標記系統,然而標記系統使用上較不
方便,會降低系統實用性,故本論文提出如何運用擴增實境的技術,來製作數
                     2
位教材及建立數位學習環境,並分析現有運用在「無標記擴增實境數位學習系
統」追蹤技術之限制因素,進而提出能追蹤各式真實物件之技術,並且降低物
件複雜度對物件追蹤造成之影響。
  本文所提之方法能提昇無標記擴增實境的實用性與普及性,製作更活潑更
生動之數位教材及建置更有效率之實現數位學習環境。例如,運用於國軍軍事
裝備維修上,可有效降低人員訓練時間及成本;另可迅速指引維修人員進行裝
備檢修,有效提昇裝備妥善率;運用於軍中的戰術教學,更可提昇學習者的學
習興趣。


1.3. 論文架構
  本論文分為五章,第一章是緒論,介紹研究動機、研究目的和論文架構;
第二章是相關文獻探討,介紹數位學習、擴增實境之既有技術與相關研究;第
三章是研究方法;第四章實驗結果與分析;第五章是結論。




                  3
2. 文獻探討
   本章首先對數位學習介紹,接著介紹何謂擴增實境,分析現行無標記擴增
實境追蹤技術,最後說明物件偵測與追蹤相關技術。


2.1.數位學習
   本節首先介紹數位學習緣起,接著說明數位教材的分類及其在數位學習的
重要性,最後介紹未來影響數位學習發展及教材製作之技術。


2.1.1. 數位學習緣起
   根據鄒景平在「數位學習最佳指引-數位學習概論」書中所提[4],「數位學
習(e-Learning)」這個名詞,最早係由一位美國數位學習大師 Jay Cross 於 1999
年率先提出,然美國訓 練與發展協會ASTD (American Society for Training an
d Development)定義 e-Learning 為「學習者應用數位媒介學習的過程,數位媒
介包括網際網路、企業網路、電腦、衛星廣播、錄音帶、錄影帶、互動式電視
及光碟等。應用的範圍包括網路化學習、電腦化學習、虛擬教室及數位合作」,
由此可知 e-Learning 包含的應用範圍相當廣泛,如利用網際網路、衛星廣播、
互動電視、以及光碟片教材等來進行課程學習,都屬於數位學習的範疇。另外
美國知名的網路科技公司思科(Cisco)對 e-Learning 的定義為「數位學習是透過
網際網路,即時傳遞各種資訊及知識給所需要的人,包含有正式的訓練及課程,
也包括資訊的傳遞及網路上的互動,知識管理及績效管理亦在其範圍之中」
                                ,由
此可知 Cisco 對 e-Learning 定義,加入了在職訓練的觀念,不在侷限於我們一
般所認知的知識學科上的學習。




                           4
2.1.2. 數位教材類別
   由於數位學習與傳統課堂教學的環境並不相同,傳統課堂教學是以授課老
師口頭講授為主,教材為輔,學習者則以被動學習,而數位學習則以教材為主,
由學習者主動學習,依自已的能力來設定學習進度,老師這時改變為輔助者的
角色,故數位學習的教材製作設計,就相對顯的相當重要,2008 年吳聲毅在「數
位學習觀念與實作」書中,依教材呈現的方式不同,將數位學習教材區分為下
列 5 類[1],如圖 2.1 所示:




                  圖 2.1:數位教材種類


2.1.2.1. 網頁式教材
   這類教材是我們一般最為常見的數位教材,其將傳統課堂上的教材以網頁
方式呈現,並加入多媒體(如動畫、圖片、Flash 等)
                          ,製作方式可透過網頁製
作軟體製作,或將文書、簡報軟體製作的教材直接另行輸出成網頁格式,此種
數位教材製作最為簡易,但學生只是瀏覽教材,無法聽到教師講解,在學習效
果上並無太大的幫助,適合用於補充教學。




                        5
2.1.2.2. 演講式教材
   這類教材主要是以投影片的呈現為主,在播放投影片時,可以同步錄製解
說視訊或音訊,並設立切換點,因此在畫面上學生可以自行選擇要閱讀的投影
片,而視訊或音訊解說將同步播放,此種教材一般較易受學習者接受,適合用
於正式授課,但教學素材大多只限於投影片而已,無法隨時切換到其他素材,
如多媒體動畫、圖片等。


2.1.2.3. 模擬式教材
   這類教材主要是錄製電腦螢幕的畫面為主,輔以相關書寫或繪畫工具,將
螢幕當成一個黑板進行教學,製作也非常簡單。而教材多以「邊下載邊播放」
的視訊串流(streaming)方式進行,一般解析度都必須在 800×600 以上,故網
路頻寬也是成為考慮因素之一。目前也有以 Flash 格式輸出的工具軟體,其在
錄製後還可以另行編輯內容,包含註解、說明,甚至有測驗的輔助功能,教師
可以讓學生學習後立即進行評量,適合用於正式授課,另外也有些專家認為所
謂模擬式教材應該是模擬實際情境,如開飛機等,然這種教材需要專業的人士
才可以製作。


2.1.2.4. 視訊式教材
   這類教材主要是透過攝影機(如 DV、Web Cam 等)錄製教材,且經過視訊
編輯軟體,將相關素材加以整合、加入旁白字幕等,最後輸出成可以放在網路
上的檔案,並籍由串流方式讓學生觀看的教材,此種教材較適合用於需要展演
的課程,適合用於正式授課及補充教學。


2.1.2.5. 電子書教材
  這類教材主將各式資料或圖書數位化,並可透過電腦、PDA、手機或電子書

                     6
閱讀機來供人閱讀,一般多用於輔助教學之用,製作方式是將所有的教學素材
加以編輯後,包裝儲存成一個檔案,好處是可以讓學生可以下載教材並隨時觀
看,學生並可利用查詢功能快速搜尋, 逹到快速學習的目的。


2.1.3. 數位學習趨勢
   依據由美國新媒體聯盟和主動學習教育機構所提出的「The Horizon Report
2010 Edition」報告中[2],提出未來五年的數位學習科技技術發展幾項預測,在
1 年內成熟的技術「行動運算(Mobile Computing)」及「開於式內容(Open
        ,在 2~3 年內成熟的技術「電子書(Electronic Book)」及「簡單擴增實
Content)」
境(Simple Augmented Reality)」,在 5 年內成熟的技術「互動手勢操作技術
(Gesture-Based Computing)」及「資料視覺化與分析(Visual Data Analysis)」,本
文主要為提出對現有運用在「無標記擴增實境數位學習系統」追蹤技術的限制
因素來進行分析,故僅對上述「行動學習」及「簡單擴增實境」做說明,說明
如下 :


2.1.3.1. 行動運算
   在 The Horizon Report 2009 的預測中[5],預測「行動學習」將於未來的 1~2
年內成熟,而在 2010 年的報告中預測「行動運算」的技術也已逐漸成型,原因
是近年來由於無線網路的蓬勃發展及結合上智慧型手機(Smart Phone)、筆記型
電腦(Notebook Computer)的普及化,使得人們可以隨心所欲在任何地方上網,
這也表示學生可以藉由智慧型手機或筆記型電腦,透過無線網路來學習。在美
國許多研究指出,由學生使用 iPhone、iPod 或 BlackBerry,經由自行開發平台
或現有互動平台,如 Facebook、Twitter,來進行討論、提問和回答問題,研究
指出成效良好;此外在美國富蘭克林馬紹爾學院,長達一年的行動學習試驗性
計劃中,使用 iPod Touches 來探討行動運算,可應用於教學、學習和研究,這
                              7
些在都證明了行動運算及行動學習,將成為未來數位學習的主流。


2.1.3.2. 簡單擴增實境
   擴增實境的技術雖然已經發展 10 多年了,但一直受限於需要攝影機、桌上
型電腦及顯示螢幕,才能觀看得到現實世界與虛擬物件的結合的影像,但是現
在只需要一部有攝影機的智慧型手機或筆記型電腦,即可達成,因此對於使用
者來說,擴增實境是很容易融入操作的技術;此外目前擴增實境的發展大多在
於娛樂的商業行為上,然目前這個趨勢,將促使擴增實境的技術可以一直被改
良操作更加簡單並讓更多的使用者接受並使用,故文中預測在未來的 2~3 年內
「擴增實境」的技術成熟後,未來運用到數位學習上是指日可待的。
2.1.4. 小結
   綜合本節所述,就美國新媒體聯盟和主動學習教育機構所提出的「The
Horizon Report 2010 Edition」報告中,指出在未來幾年「行動運算」及「簡單
擴增實境」的技術便會成熟;另外就教材分類而言,本文所研究的內容就本質
而言應屬模擬式教材,適合用於正式授課,而若未來可結合「行動運算」那便
可開發成網頁式教材,適合用於補充教學,所以本文所提「無標記擴增實境數
位學習系統」可以同時運用在正式授課或補充教學的教材。


2.2.擴增實境
   何謂「擴增實境」?對許多人而言是一個新的名詞,但對另一個名詞「虛
擬實境」一定不會感到陌生,故先說明擴增實境與虛擬實境之差別,根據 1994
年 Milgram 等人[6],將真實到虛擬之間的變化程度,提出了「真實-虛擬連續性
(reality–virtuality Continuum)」的理論,為擴增實境與虛擬實境做了有所區別。
如圖 2.2 所示,兩端點分別代表著真實的環境和虛擬的世界,統稱為混合實境
(Mixed Reality,MR),在不含兩端點的線段的「連續範圍」稱之為「真實-虛擬
                         8
連續性(Reality–Virtuality Continuum,RV)」
                                    。若是比較靠近「真實」端者,即「真
實」的成份高於「虛擬」者,則稱之「擴增實境」(Augmented Reality,AR);
相對而言,如果是「虛擬」之比例較高時,則稱之為「擴增虛境」(Augmented
Virtuality,AV)。 簡單的說,
                    「擴增實境」是真實場景與虛擬物件結合,「擴增
虛境」虛擬場景與真實物件結合。




                圖 2.2:虛擬連續性的理論[6]


2.2.1. 擴增實境緣起
   擴增實境相關技術早在 50 年前就有人提出,從 1960 年電腦繪圖先鋒 Ivan
Sutherland 和他的學生,開發出第一套系統。1970 年代,美國空軍阿姆斯壯實
驗室、航太總署艾密斯研究中心及北卡羅來納大學教堂山分校等機構,有幾個
人從事擴增實境的研究。到 1990 年代初波音公司有幾個科學家才創造了「擴增
實境」這個名詞,他們當時正在開發一種實驗性擴增實境系統,協助工人裝配
管線設備[7]。到了 1997 年 Azuma 對擴增實境提出了定義[8]:「擴增實境是由
虛擬實境(或俗稱虛擬現實,VE)所變化而來的,虛擬實境的技術是該使用者
完全沉浸於一個合成環境中 使用者無法看到在他周圍真實的世界 相比之下,
            ,                。
擴增實境在真實的世界與虛擬物體複合疊加後 則允許使用者看到真實的世界
                    ,             。

                          9
因此,擴增實境是增強的現實環境,而不是完全取代它」,Azuma 並提出擴增
實境至少具有三大特性:(1)結合虛擬與真實世界(Combines real and virtual),(2)
可供即時性互動 (Interactive in real time), (3)資訊必 需呈現在三
                                               度空間內
(Registered in 3-D)。
2.2.2. 擴增實境基本原理
    本節首先介紹在 2005 年 Oliver Bimber 和 Ramesh Raskar 所提出擴增實境
基礎架構,由當中可以瞭解擴增實境的底層技術,接著說明如何實現擴增實境
運作步驟。


2.2.2.1. 擴增實境基礎架構
    Oliver Bimber 和 Ramesh Raskar 在 2005 年「Spatial Augmented Reality
Merging Real and Virtual Worlds」的書中提出擴增實境的基礎架構[9],如圖 2.3
所示。




                       圖 2.3:擴增實境的基礎架構[9]


    由於擴增實境是真實環境與 3D 虛擬物件結合,故最底層技術為「影像處
理」領域的「追蹤及定位(Tracking and Registration)」負責辨識物件及追蹤物件
位置,
  「電腦圖學」領域的「3D 物件顯示技術(Display Techniques)」和「渲染

                                 10
(Rendering)」負責將 3D 虛擬物件繪製整合圖形於物件相對位置上。第二層由
「人機互動控制(Interaction devices and techniques)」
                                           、「展示(Presentation)」 及「創
作(Authoring)」所組成,負責與使用者互動,如人機操作介面及劇本創作,而
現今虛擬實境的研究大多已經邁向此階段。第三層為「應用層(Application)」,
將結果呈現在使用者面前,第四層為「使用者(User)」。


2.2.2.2. 擴增實境運作步驟
    擴增實境技術基本運作可分為四大步驟,如圖 2.4。首先從攝影機輸入影
像 (載入);接著擷取特定物件或標記,並分析圖標的角度及位置(追蹤辨識);
再來是載入及疊加 3D 物件(定位疊加);最後將 3D 影像顯示於螢幕上(顯示)。




                      圖 2.4:擴增實境運作步驟




                                 11
2.2.3. 擴增實境類別
   擴增實境是將真實場景與虛擬物件結合,其基礎技術為影像追蹤及辨識,
可區分為「標記」及「無標記」等二類[9],定義分述如下:


2.2.3.1. 標記系統
   標記系統代表擴增實境系統 必須經由特定標記 圖樣供系統辨識及定位,
               ,        、
而其標記的圖樣如圖 2.5 所示[10]。而在標記系統大多數使用由美國華盛頓大
學人機介面實驗室所開發出來的 ARToolkit 免費軟體來進行開發 然而為 了3D
                                  ,
定位準確及快速,ARToolkit 標記必須符合「必須是正方形」「邊框必需與背
                                、
景是對比顏色」及「標記圖案 不可旋轉對稱」等 3 個原則,才可以準確且快速
的定位[11]。




                圖 2.5:標記圖樣[10]


   標記技術需透過系統特別的標記,來當作觸發的媒介,當攝影機畫面比對
出符合標記的圖樣時,便即時在圖樣上置放預先設定好的虛擬物件,並同時在
螢幕上顯示出擴增實境的畫面,示意圖如圖 2.6,本文將完整流程圖整理如圖
2.7 所示。然而標記受限於上述 3 個原則,在應用上較不美觀,但也因為符合上
述原則,使用標記時,可方便追蹤、辨識及定位。


                      12
圖 2.6:標記擴增實境示意圖




                 圖 2.7:標記擴增實境運作流程圖


2.2.3.2. 無標記系統
   無標記系統代表擴增實境系統不須特定標記、圖樣來辨識及定位,可依使
用者喜好自行設計圖樣或使用真實物件來進行辨識及定位,示意圖如圖 2.8。
故無標記技術為使用没有固定標記的圖像來當作觸發的媒介,在使用前需先擷
取辨識物件圖像或其特徵點(如:紋理、顏色、輪廓等等),當攝影機畫面比對
出符合物件圖像或特徵點時,便即時在圖樣上置放預先設定好的虛擬物件,並
同時在螢幕上顯示擴增實境的畫面,本文將完整流程圖整理如圖 2.9 所示。然
因無標記使用為非物件圖像或特徵點,故在應用上較方便及美觀,但必須配合
正確的追蹤辨識技術,方能順利呈現 3D 物件。

                         13
圖 2.8:無標記擴增實境示意圖




                 圖 2.9:無標記擴增實境運作流程圖


2.2.4. 擴增實境技術在數位學習之應用
   近年來已有許多研究提出擴增實境在數位學習的運用,在考量篇幅關係,
故列舉「電磁學教學」「電腦兵棋推演」及「軍事裝備維修」等 3 例,分別介
          、
紹如下:
2.2.4.1. 電磁學教學
   2009 年德國 Andre´ Buchau 等人[14]提出運用擴增實境可視化特性,將人
眼無法看見的電磁場模擬出來,這樣的技術運用在電磁學教學上,可以使得學
生輕鬆瞭解其特性及物理現象,如圖 2.10 所示。

                         14
圖 2.10:電磁學教學系統[14]


2.2.4.2. 電腦兵棋推演
   在 2005 年紐西蘭坎特伯雷大學 Trond Nilsen 及 Julian Looser 等人[15],設
計出可 2 人以上同時操作使用的擴增實境坦克大戰遊戲,如圖 2.11 所示,這項
技術若引進至軍方,運用在爾後軍中的戰術教學部份,相信更可提昇學習者的
學習興趣。




                  圖 2.11:擴增實境坦克大戰遊戲[15]
2.2.4.3. 軍事裝備維修
   在 2009 年美國哥倫比亞大學的 Steve Henderson 和 Steve Feiner 與美國海軍
陸戰隊配合[16],將擴增實境的技術運用在維修 LAV-25A1 裝甲運兵車,如圖
2.12 所示,在繁複的維修作業中,透過擴增實境技術的幫助,使用者可以藉由
頭戴顯示器(HMD)快速獲知維修機器時所需的資訊,逹到快速維修節省時間、

                            15
人力的目的。擴增實境的技術運用在軍事裝備維修上,除可以有效降低人員訓
練時間及成本外,另外亦可迅速指引維修人員進行裝備檢修。




            圖 2.12:美軍維修 LAV-25A1 裝甲運兵車[16]


2.2.5. 小結
   綜觀近年的許多擴增實境在「數位學習」的應用發現, 絶大多數的應用系
統,開發平台都為使用「美國華盛頓大學人機介面實驗室」所開發出來的
ARToolkit 2.72.1 版,而 ARToolkit 2.72.1 版本之前,所使用就為「標記」系統,
故相對所開發出來的系統,均為「標記」系統,然就運用在「數位學習」上來
說,要開發出操作人性化、內容豐富,且多樣化的教材系統,建議使用「無標
記」。因為其不受「標記」的限制,操作介面可以更加便利、親切及人性化。


2.3.無標記擴增實境追蹤技術分析
   本節將首先介紹現有無標記擴增實境開發平台,接著分析影響追蹤技術因
素。


2.3.1. 現有開發平台
   擴增實境現有絶大多數的開發平台均有支援「標記」,而支援「無標記」
的開發平台不多,以下僅介紹支援無標記的開發平台。


                           16
2.3.1.1. ARToolkit Professional Edition
     ARToolkit 是由 C 語言撰寫的函式庫,透過 C 或 C++語言可以讓使用者輕
鬆地使用「標記」開發出擴增實境的應用。起初是由「美國華盛頓大學人機介
面實驗室」所開發出來的免費版本,目前最新的免費版本是 2.72.1,而在之後
便推出 ARToolKit Professional Edition 商業化版本,其中結合了許多新的影像
處理技術,而在「無標記」的部份 ARToolkit 也推出了 ARToolKit NFT[12],對
物件的自然特徵的紋理表面進行追踪,讓使用者可以輕鬆地使用開發出「無標
記擴增實境系統」,但在無標記辨識時物件影像周圍必須設置傳統標記如圖
2.13 所示,以利追蹤辨識。




                     圖 2.13:ARToolKit NFT 無標記示意圖[12]


2.3.1.2. D’ Fusion
    D’Fusion是由TOTAL IMMERSION公司所開發出來擴增實境應用軟體[17],
所使用的語言為Script ,其也支援「無標記」,但在物件追蹤會受限於物件本身
的複雜度。物件複雜度越高,追蹤、辨識效果越好;反之,物件複雜度越低,
追蹤、辨識效果越差。其目前「無標記」相關應用以平面圖卡為主,並未有以
真實物件供追蹤辨識及在真實物件上呈現3D物件之運用案例。


                                          17
2.3.1.3. Unifeye Design
    Unifeye Design 是由 Metaio 公司的所開發出來擴增實境應用軟體[18],所
使用的語言為 C#,其也支援「無標記」,然他的限制在於目前所呈現出來均為
運用於故事書上製作為主,並未有以真實物件供追蹤辨識及在真實物件上呈現
3D 物件之運用案例。


2.3.1.4. 小結
    綜觀上述無標記開發平台,其在追蹤辨識技術均有所侷限,ARToolkit 受
限於辨識時物件影像周圍必須設置傳統標記 D’Fusion 及 Unifeye Design 就目
                   ,
前所知,均無法對真實物件追蹤辨識,故無法滿足本文所提須能追蹤各式真實
物件。


2.3.2. 影響追蹤技術因素分析
    由於擴增實境的底層核心技術之一是影像處理領域的追蹤及辨識,然在進
行影像追蹤、辨識及定位時,會受「環境光源」、「辨識圖樣角度」、「影像
解析度」、「辨識圖樣材質」等 4 點因素限制[3],原因分述如下:


2.3.2.1. 環境光源
    一般我們從攝影機獲得影像通常為 RGB 色彩模型,而周邊環境的光源明
亮會導致影像 RGB 值出現變化,當物件追蹤周邊光源有強烈變化時,將會因
RGB 值出現變化而致使辨識錯誤,另外光線照射所產生的陰影,也都會造成辨
識失敗。


2.3.2.2. 辨識圖樣角度
    攝影機與辨識物件平面的夾角以 90 度為最佳,但會降低使用的靈活度。當

                          18
夾角超過 180 度時,會導致追蹤辨識失敗。換而言之,當辨識的夾角越大使用
靈活度越高,但相對的辨識效果愈差;辨識的夾角越小使用靈活度越低,但相
對的辨識效果愈高,故通常攝影機與辨識物件平面的夾角為 20 度~160 度,以
保持操作靈活度。


2.3.2.3. 影像解析度
   影像的解析度會影響辨識及追蹤效果,原因在於解析度越高則辨識物件細
節部份越清楚,但會增加系統運算時間。反之,解析度越低,雖然會減少系統
運算時間,但可能會因畫素不足導致辨識物件細節部份模糊不清,故必須在二
者之間取得平衡。


2.3.2.4. 辨識物件材質
   辨識物件平面的材質會影響到辨識追蹤,原因在於當光線照射於辨識物件
平面時 由於物件材質本身的關係造成反光 使得物件平面上的部份特徵消失,
   ,               ,
致使辨識錯誤,因必須此審慎選擇物件材質。


2.4.物件偵測與追蹤相關技術
   就 2.2.2.2 節所述擴增實境運作步驟原理的四大步驟「載入」
                               ,  、「追蹤辨識」
                                        、
「定位疊加」及「顯示」,其中追蹤辨識部份,主要運用「移動物偵測」的相關
方法將物件從影像中分 離出來,進一步再運用「物件追蹤」相關方法進行持續
追蹤,最後用「座標轉換」方法取得物件所在位置之座標,並將虛擬物件疊加
在追蹤物件的座標位置上。


2.4.1. 移動物偵測
   移動物偵測主要在擷取移動物件,以利後續移動物件追蹤,常見之移動物

                    19
件偵測追蹤方法可分為光流法(Optical Flow Method)、時序差異法(Temporal
Differencing)與背景相減法(Background Subtraction)等三類[19],分述如下。


2.4.1.1. 光流法
   光流法係運用連續影像中,圖像像素的亮度變化,來找出影像中的光流場
(Optical Flow Field),再藉由光流場來估計移動物體的運動向量後進行特徵匹
配。簡單來說,光流法就是藉由偵測光線強弱的變化來進行偵測移動物件,示
意圖如圖 2.14 所示。
   在眾多光流法中,目前常用的方法為「H-S光流法」[20],以及「L-K光流
法」[22]。前者為Horn及Schunck於1981年提出,此方法較不易受到雜訊之影響,
但因使用疊代法求解,故在計算速度上會顯的較慢[21]。「L-K光流法」為Lucas
及Kanade 於1981年所提出,其基本原理基於下列三項假設[23]:
1.亮度不變性:以灰階影像而言,其意義為一物體的亮度不會在相鄰二幅影像中
               出現巨大的變化。
2.時間連續性:假設一物體在即時相鄰二幅影像中移動距離是很微小,然由於實
               際上在即時環境下1秒為15至30張圖像,故物體在相鄰二幅影像
               中所移動距離並不會移動過大。
3.空間一致性:畫面中相鄰的點屬同一物體平面,則會有相似的移動,在影像內
               不會距離太遠。
   「L-K光流法」優點在於僅對部分區域的光流場進行分析計算,故在計算上
相對更顯快速簡單,缺點則為僅能計算較短的移動向量,對於長距離的移動則
無法有效的偵測。為解決上述問題,Bouguet於1999年提出「金字塔L-K光流法」
[24],主要將「L-K光流法」結合金字塔結構特性,追蹤時先從低解析度的影像
開始追蹤,再追蹤到高解析度影像。藉由計算低解析度的移動矩離來對應回至


                            20
高解析度的矩離,便可解決因移動離過大導致無法正確追蹤物件之缺點。




                  圖 2.14:光流法示意圖[25]


2.4.1.2. 時序差異法
   時序差異法的原理,是利用連續二幅或三幅的影像做一對一的像素相減,
若是兩者差異不為零,則為前景物件[19]。在 1998 年 Lipton 等人成功的運用此
方法檢測出前景物件[26];2000 年卡內基美隆大學機器人研究所在其研究報告
中,運用連續三張的影像來取得移動特徵,並利用設定一個門檻值來決定那些
是前景物件[27]。上述二者方法在計算效能上都有非常好的效率,但缺點就是
無法取得完整的前景物件[28],如圖 2.15 所示,其中物件移動時,因影像 K-1
及影像 K 部份區域有重疊,導致在比較時造成錯判,故無法取得完整的前景物
件。




                 圖 2.15:時序差異法示意圖[28]



                          21
2.4.1.3. 背景相減法
     背景相減法的原理,係先行運用幾秒的連續影像來建立初步背景,背景建
立完成後,再以目前影像與背景影像比較,符合背景條件的則判定為背景,反
之則判定前景物件。但因判定時完全參照背景影像,故在動態場景光線或背景
改變時易形成誤判[19]。此方法之優點在於運算快速,且可擷取到完整的前景
物件。
     在 2005 年 Jacques 等人提出背景相減法,背景模型 B(x,y)建立公式如公式
(2.1)[29]。


           m(i, j)                    zV (i, j)
                                    min z

B(i, j) = � n(i, j) � = �             zV (i, j)
                                    max z                      �
           d(i, j)          max|V z (i,
                                        j)   − V z−1 (i, j)|
                                                                             (2.1)
                              z

where |V z (i, j) − λ(i, j)| < 2σ(i, j)


     其中 V 為連續 n 張影像,Vz(i,j)為第 n 張影像中(i,j)的像素值,m(i,j)和 n(i,j)
分別為 V 中相對位置(i,j)的最大值及最小值,而 d(i,j)則為二張相鄰影像相對位
置(i,j)的最大差異值,λ(i,j)和σ(i,j)分別為連續 n 張影像中相對位置(i,j)的中位
數(Median)和標準差(Standard Deviation) 當新影像 It(i,j)進入時 經由與公式(2.2)
                                ,                ,
比對,擷取出前景物件。


           0 , I t (i, j) > (m(i, j) − kμ) and I t (i, j) < (m(i, j) + kμ)
F(i, j) = �
                                     1 , otherwise
                                                                             (2.2)


當中μ為最大差異值 d(i,j)的中位數,k 則為一常數,而 F(i,j)為前景物件,擷取
結果如圖 2.16 所示。



                                                      22
圖 2.16:背景相減法結果圖[29]


2.4.1.4. 小結
    分析上述 3 種方法,其中光流法及時序差異法都不需先行建立背景,然時
序差異法問題在於無法擷取完整的前景物件,這樣對於後續的移動物件追蹤與
辨識將無法提供完整的資訊 背景相減法則需先行運用一段時間影像建立背景
            。                     ,
所以前置準備作業較長。
    光流法雖易受光源影響且計算方式較複雜,但優點在於不需先行得知目標
物的特徵,僅藉由影像亮度的變化, 即可求得物體位移距離。而「金字塔 L-K
光流法」可以僅對部分區域光流場進行分析計算,計算上相對更顯快速簡單,
再搭配其他特徵點尋找的方法(如 SIFT SURF 等等) 即可達成物件追蹤辨識,
               :    、       ,
可應用在「無標記擴增實境數位學習系統」上開發出追蹤各式物件技術。


2.4.2. 物件追蹤
    物件追蹤(Object Tracking)是藉由比對連續影像間物件的相似程度,此範疇
涵蓋物件特徵擷取、目標物搜尋及物件辨識等,而現有物件追蹤的方法可分為
「區域式追蹤 (Region-Based Tracking)」「主動式輪廓追蹤(Active Contour-Based
                               、
Tracking)」 「特徵追蹤(Feature-Based Tracking)」及「模型追蹤(Model-Based
          、
Tracking)」等四類[19][30][32],分述如下:




                              23
2.4.2.1. 區域式追蹤
   此類方法的原理係將影像變動的區域視為移動物件,藉著偵測這些變動區
域的位置,來達到追蹤的目的。常用的方法是利用目前的影像與背景相減或運
用連續二張影像相減,所偵測出變化的區域,然後再進一步設立規則做篩選,
或劃分。


2.4.2.2. 主動式輪廓追蹤
   此方法的原理係為運用物件的輪廓線(例如影像邊緣、形狀等)來描述移
動的物件,再利用每張影像上輪廓的資訊更新來追蹤物件。這種方法相對於區
域式追蹤對描述物件較為簡單且更有效率,也因輪廓線是封閉曲線,即使物體
交錯,也不會受到影響,但追蹤效果和初步輪廓的偵測或選取密切相關,故較
難用於全自動的偵測追蹤系統。


2.4.2.3. 特徵追蹤
   這種方法的原理係運用物件本身的特徵來進行追蹤,但首先要對追蹤物件
本身擷取其特徵。然而根據不同的特徵,可分為「整體性特徵(global feature
based),如重心、色彩、面積、紋理,
      」            「局部性特徵(local feature based),如
                                              」
線段、頂點,
     「相依圖形特徵(dependence graph based)」
                                    ,如特徵間的結構變化等
3 類。此方法可以用來即時追蹤多個物體(相依圖形特徵方法除外),並可利用運
動特徵、局部特徵或相依圖形特徵來解決物體交錯的問題。
   1999 年 Comaniciu 以及 Meer 提出「平均值移動的追蹤技術(Mean Shift
Object Tracking)」[33],其原理是統計移動區域內的亮度值,依不同位置給予不
同的亮度比重,組合成目標物的特徵模型,然後再從影像中找出和目標物模型
最相像的區域,藉此達到追蹤的目的。
   2004 年 由 Lowe 所 提 出 「 尺 度 不 變 特 徵 轉 換 (Scale-Invariant Features
                                24
Transform,SIFT)」[34],是目前最為熱門的局部性特徵,該特徵對旋轉、尺度
縮放、亮度變化可保持不變性,另對視角變化、仿射變換也可以保有一定穩定
性 2008 年 Bay 等人提出
 。               「加速強健性特徵(Speeded-Up Robust Features SURF)」
                                                   ,
[38],該特徵係將影像轉換為積分影像並擷取特徵點,特徵點描述改良 SIFT 特
徵點描述之方法,其優點為運算速度較 SIFT 快。


2.4.2.4. 模型追蹤
    此類方法之原理係先建立物體模型,再利用已知或假設的運動特徵建立運
動模型,用運動模型去預測下一張影像的物體模型變化,最後透過搜尋和比對
來完成。而模型追蹤的方法會提供較精細且準確的判斷,因此需要良好的物體
結構模型,所以基本上比較不受附近背景或其他物件干擾影響,也較能抵抗物
體間交錯問題,但相對地運算量也比較大。


2.4.2.5. 小結
    要開發出適用於「無標記擴增實境數位學習系統」的追蹤技術,如何選取
有效的特徵將是非常重要的課題,從上述 4 種分類上來講,本文將採取「特徵
追蹤」中的「局部性特徵」
           ,因其中 SIFT 及 SURF 等 2 項特徵點,對旋轉、尺
度縮放變化都可保持不變性,在開發「無標記擴增實境數位學習系統」追蹤技
術上,可提供有效的特徵點,以逹即時且穩定快速追蹤的目的。


2.4.3. 物件特徵擷取
    本節介紹「局部性特徵」中 SIFT 及 SURF 等 2 項特徵比對原理。
2.4.3.1. SIFT特徵比對原理
    SIFT 是 1999 年 Lowe 所提出,並在 2004 年整合總結 [34],是目前最為熱
門的局部性特徵。該特徵對旋轉、尺度縮放、亮度變化可保持不變性,另對視

                            25
角變化、仿射變換也可以保有一定穩定性。SIFT 主要分成尺度不變特徵偵測
(SIFT Detector)與特徵描述(Feature Descriptor)兩部份。其中,尺度不變特徵偵
測主要是在可能的尺度中搜尋穩定的興趣點(Interest point) 為了保持其穩定性
                                  ,         ,
SIFT 會將不穩定的邊緣響應(Edge responses)去除。而特徵描述是在保持興趣點
獨特性,也就是運用統計興趣點周圍的梯 度變化程度,並轉換成 128 維的描述
向量,以強化與趣點的獨特性。
     SIFT 主要分為「尺度空間極值檢測」「特徵點最佳化及定位」「計算特徵
                        、          、
點分向性」及「特徵點描述」等四個步驟,分述如下:


2.4.3.1.1. 尺度空間建立與極值偵測
     為了達成尺度不變特徵的目的,最基本的概念就是從所有的尺度空間中搜
尋穩定的特徵,但實際上確是不可行,原因是尺度空間可以為無限大,故不可
能在所有的尺度 空間中搜尋,所以 SIFT 採用高斯差分濾波 (Difference of
Gaussian filter, DoG filter)來建立尺度空間,在建立完成尺度空間後,進而搜尋
空間中的極值(Extrema),所這個步驟可以分為 2 個流程。


1. 高斯差分濾波
    在使用 DoG 濾波之前,首先我們先定義一個 Gaussian kernel,已知給定一
個σ,並以高斯濾波函數(Gaussian filter)為公式(2.3)。


                1 −(x2 +y2)⁄σ2
G(x, y, σ) =        e
               2πσ2                                          (2.3)


     假設 I(x, y)為影像 I 在(x, y)處之像素値(Pixel value) 利用
                                             ,   公式(2.3)對 I(x, y)
作迴旋積分(Convolution),我們就可以得到一個尺
                            度為σ                    且具有可變尺度


                                 26
(Scale variable)的高斯濾波結果 L ,如公式(2.4),其中 L 表示為尺度空間,(x, y)
表示為影像 I 上的點,而σ表示為尺度因子,其值越小代表該影像平滑效果越
小。反之,則代表平滑效果越大,大的尺度空間代表影像的概樣特徵,小的尺
度空間則代表影像中細微特徵,所以尺度因子的選擇是最為關鍵的。


L(x, y, σ) = G(x, y, σ) ∗ I(x, y)                   (2.4)


     應用這個高斯濾波函數,DoG濾波就是給定兩個不同尺度的高斯濾波器對
影像I做濾波,再將濾波後的影像相減,公式如(2.5) 。


G(x, y, σ) = L(x, y, kσ) − L(x, y, σ)               (2.5)


     因此,DoG 濾波也相當於是把兩個Gaussian kernel 直接作相減,再將相減
之後的結果對I(x, y)作迴旋積分,公式如(2.6) 。


G(x, y, σ) = (G(x, y, kσ) − G(x, y, σ)) ∗ I(x, y)   (2.6)


     此流程主要應用影像金字塔(Image pyramid)的概念,完成一組(octave)尺度
空間,取樣頻率就可以減半,也就是將原始影像縮小一倍,然後繼續產生下一
組尺度空間,依此類推,這樣就可以產生多組尺度空間,其目的是在尺度縮減
的情況下再建立一個尺度空間,以讓接下來步驟中取得更多可能的特徵。以圖
2.17為例,其中最底層就是沒作高斯濾波的影像,接下來每做一次高斯濾波就將
σ取k倍再做一次高斯濾波產生下一層,所以k就是兩層相近尺度的比例。依此
類推,我們可以產生多層不同尺度的高斯濾波結果。接下來再將同一尺度高斯
濾波的結果相減,所得到的差分結果即為高斯差分的結果,而這個利用高斯差


                                            27
分濾波器所產生尺度空間,就是偵測極值的尺度空間。




             圖 2.17:高斯差分濾波示意圖[34]


2.尺度空間極值偵測
  從上一個步驟中所獲得的尺度空間,接下來就可以這尺度空間中搜尋可能
的特徵點(也就是興趣點),其方法是搜尋空間中的極値(Extrema),以圖 2.18為
例,若尺度空間中存在一個X點,為周圍26個點中的最大值或最小值(上一層9個
鄰近點、同一層8個鄰近點與下一層9個鄰近點),則該點即判定為特徵點。最後
若確定興趣點為特徵點時,若當初該特徵點尺度縮減的取樣頻率為1/ f 倍,就將
該特徵點的座標皆乘以f倍,即可得到該特徵點在原始影像尺 度中的座標位置。




              圖 2.18:極值搜尋示意圖[34]



                      28
2.4.3.1.2. 特徵點最佳化及定位
    由於高斯差分濾波器對邊緣響應較為敏感,故在這些興趣點中可能包含許
多不穩定的邊緣響應,故為了去除這些不穩定的邊緣響應,步驟運用泰勒展開
式(Taylor expansion)及海森矩陣(Hessian)消除雜訊、邊緣響應的影像,以增強特
徵匹配時的穩定性。
1.泰勒展開式


點,T 為轉置矩陣,根據泰勒展開式可得偏移量 x ,並將其帶入公式(2.8),如
                       �
    首先運用公式(2.7)刪除低對比點,其中 D 為 DOG 運算後結果,x 為興趣


果計算出來絶對值小於 0.03 則視為雜訊。


           ∂DT   1 T ∂2 D
D(x) = D +     x+ x       x
            ∂x   2 ∂x 2
                                               (2.7)


    ∂2 D−1 ∂D
x=−
�
     ∂x 2 ∂x
                                               (2.8)


2. 海森矩陣
    接著運用海森矩陣消除邊緣響應,首先在興趣點上運用公式(2.9)求得 H 矩
陣,之後代入公式(2.10)求得 Tr(H)及 Det(H),並代入公式(2.11),若條件成立(其
中γ部份為一門檻值,通常設為 10),則該點則視為受邊緣響應影響並將其刪
除,最後所剩餘的興趣點即為特徵點。


    Dxx   Dxy
H=�           �
   Dxy    Dyy
                                               (2.9)



Tr (H) = Dxx + Dyy = α + β                    (2.10)


                              29
Det(H) = Dxx Dyy − (Dxy )2 = αβ


Tr (H)2 (γ + 1)2
       <
Det(H)      γ
                                                                          (2.11)



2.4.3.1.3. 計算特徵點方向性
    首先以特徵點為中心並取其周邊 16*16 的畫素,接著運用公式(2.12)及
(2.13)計算出每一畫素梯度強度及方向,其中 m(x,y)代表座標位置(x,y)的梯度強
度,θ(x,y)代表座標位置(x,y)的梯度方向,而 L 則代表其相對應的尺度空間。


m(x, y) = �(L(x + 1, y) − (x − 1, y))2 + (L(x, y + 1) − (x, y − 1))2      (2.12)


θ(x, y) = tan−1 ��L(x + 1, y) − (x − 1, y)�/�L(x, y + 1) − (x, y − 1)��   (2.13)


    計算出每一畫素的梯度強度及方向後,運用直方圖統計的方法來決定特徵
點的方向,也就是運用特徵點周邊的畫素方向來進行統計,並以 1.5 倍高斯加
權對畫素進行加權,越接近特徵點則代表其權重越大,直方圖部份以每 10 度為
1 區段,故計有 36 區段,而主要方向必須經統計後峰值超過 80%以上,方可為
其主要方向,若出現超過 2 個以上峰值超過 80%以上,則以一個最高者為主方
向,其餘為輔方向,這樣可使特徵點更加穩定。


2.4.3.1.4. 特徵點描述
    在求出每一特徵點方向後,接著便進行特徵點描述,首先,以特徵點方向
為基礎,旋轉至以特徵點方向為北的方向,以圖 2.19 為例,再以特徵點為中心
取 8*8 的區塊(不含特徵點所在行列)做為該特徵描述的依據。接著將 8*8 區


                                         30
塊切成 2*2 子區塊,如圖 2.19 右圖所示,透過 Gaussian kernel 的加權再統計
每一個子區塊中 8 個梯度方向。因此,可以得到 32 維向量資訊,這種結合鄰
近畫素向量資訊的特徵描述方法逹成旋轉不變的目的。最後在實際的計算過程
中,為了讓特徵的匹配有更強的穩健性,作者建議 8*8 的區塊改為 16*16 區
塊,並切割為 4*4 子區塊,這樣獲得的向量資訊會從原 32 維改為 128 維,使
其在特徵的匹配更具有容錯性。




                  圖 2.19:特徵點描述示意圖[34]


2.4.3.1.5.   SIFT相關技術發展
   2004 年 Ke 與 Sukthankar 等人提出「PCA-SIFT」的方法[35],主要概念是將
SIFT 結合主成份分析(Principle component analysis, PCA),將原本 128 維的特徵
描述向量,運用 PCA 的技術原理,投影到低維度的向量空間中,於特徵比對時
降低維度增加運算效率。2005 年 Mikolajczyk 與 Schmid 提出「GLOH (Gradient
Location Orientation Histogram)」的方法[36],主要將原特徵描述子中 4*4 棋盤
式子區塊,改為放射狀同心圓子區塊替代,如圖 2.20 所示。其中共有 17 個子
區塊,統計每一個子區塊中 16 個梯度方向,所以每一特徵點可得 272 維度的描
述向量,再運用 PCA 的技術原理將 272 維投影至 128 維的向量空間中,使其
較 SIFT 的特徵描述子更加穩定。




                             31
圖 2.20:GLOH 特徵描述子示意圖[36]


2.4.3.2. SURF
    SURF 於 2008 年由 Bay 等人所提出[38],該特徵係將影像轉換為積分影像
以擷取特徵點,並改良 SIFT 特徵點描述之方法,因此運算速度較 SIFT 快。主
要分為「特徵點檢測」「計算特徵點分向性」及「特徵點描述」等三個步驟,
          、
分述如下:


2.4.3.2.1. 特徵點檢測
    此步驟主要檢測影像中的特徵點,可分為「積分影像(Integral Images)」
                                            、「尺
度空間建立」「海森矩陣(Hessian)特徵檢測」及「特徵點定位」等四個流程,
     、
分述如下:


1. 積分影像
    積分影像的目的在於可以利用查表(look-up table) 的方式快速計算影像中
任意矩形區域的像素值總和,此方法在 SURF 中使用遮罩運算時,當處理的區
域面積很大時,可以降低運算量和處理時間,其計算方法如公式(2.14),所得積
分影像示意如圖 2.21 所示。




                           32
i≤x j≤y

IΣ (x) = � � I(i, j)
        i=0 j=0
                                              (2.14)




                       圖 2.21:積分影像運算示意圖[39]


    以圖 2.22 為例,A、B、C、D 表示積分影像中四個積分值位置,可藉由
公式(2.15)計算矩形框灰階值總和 這種計算方式可以大幅降低 SURF 在建立尺
                  ,
度空間遮罩運算時的運算量和處理時間。


Σ=A−B−C+D                                     (2.15)




                  圖 2.22:積分影像計算矩形框示意圖[38]


2. 尺度空間建立

                                33
SURF 以 SIFT 建立金字塔尺度空間的概念為基礎,但二者截然不同。SIFT
以固定高斯核函數遮罩大小,改變原始影像大小;而 SURF 則以固定原始影像
大小 改變 Hessian 偵測子的遮罩大小以實現尺度空間的效果 實際上 SURF 採
  ,                             。
用三個倍頻,且每個倍頻內有四個不同尺度的 Hessian 偵測子。第一個倍頻尺
度空間的尺度參數定義為 1.2,2,2.8,3.6,其相對應的遮罩為 9×9,15×15,
21×21,27×27;第二倍頻尺度參數則定義為 2,3.6, 5.2,6.8,遮罩為 15×15,
27×27,39×39,51×51;第三倍頻尺度參數定義為 3.6,6.8,10,13.2,遮罩為
27×27,51×51,75×75,99×99。如圖 2.23 所示,圖中(a)為 SIFT 尺度空間建立
時,遮罩不變改變原圖尺寸大小,(b)為 SURF 尺度空間建立時原圖尺寸不變但
改變遮罩大小。




圖 2.23:SIFT 與 SURF 金字塔尺度空間建立示意圖: 圖(a) 為 SIFT;(b) 為
SURF[38]。


3. 海森矩陣(Hessian)特徵檢測
   海森矩陣是 SURF 的運算核心,為了方便運算,假設函數 f(x,y),海森矩陣


同的尺度空間下所求的海森矩陣公式如(2.18),其中Gyy (x, y, σ)為高斯核函數對
H 是由函數 f 的偏導數組成,公式如(2.16)所示,展開後如公式(2.17),而在不


y 的二次偏微分,其餘類推。


                          34
∂2 f  ∂2 f
             ⎡            ⎤
             ⎢ ∂x 2 ∂x ∂y⎥
H(f(x, y)) = ⎢ 2
               ∂ f   ∂2 f ⎥
             ⎢            ⎥
             ⎣∂x ∂y ∂y 2 ⎦
                                                                   (2.16)




        ∂2 f ∂2 f  ∂2 f 2
det(H) = 2 2 − (        )
        ∂x ∂y     ∂x ∂y                                            (2.17)


               Gxx (x, y, σ) × I(x, y) Gxy (x, y, σ) × I(x, y)
H(x, y, σ) = �                                                 �
              Gxy (x, y, σ) × I(x, y) Gyy (x, y, σ) × I(x, y)
                                                                   (2.18)


     為了影像與高斯二階差分運算,將離散訊號用遮罩加以簡化,故原作者將
其運算子取近似值 對於在不同尺度海森矩陣如公式(2.19) 其中 0.9 為一常數,
        ,                   ,
主要為補償取近似值後的誤差,最後對每一尺度每像素進行運算,當 Happrox > 1
時則判定該點為興趣點。


Det�Happrox � = Dxx Dyy − (0.9 × Dxy )2                            (2.19)


4.特徵點定位
     興趣點確定後,接下來就以這些興趣點搜尋確定特徵點,方法與 SIFT 中
尺度空間極值偵測相同。以圖 2.18 為例,若尺度空間中存在一個 X 點為周圍
26 個點中的最大值(上一層 9 個鄰近點、同一層 8 個鄰近點與下一層 9 個鄰近
點),則該點即判定為特徵點。


2.4.3.2.2. 計算特徵點方向性
     為保持旋轉不變性,首先以特徵點為圓心取半徑大小為 6σ(σ 為特徵點所
在尺度值)的圓形區域內,對每個點進行一階 Haar 小波遮罩運算(Haar 小波邊


                                             35
長為 4σ),並以高斯加權進行加權,其一階導數可表示運算區域於與方向的梯
度。再以圓心角(60 度)扇形視窗繞著特徵點掃描,並根據每個掃描角度,統計
扇形視窗內的一階導數值(dx 與 dy)的加總,以扇形區域內有最大加總值的掃描
角度作為其特徵的主要方向。如圖 2.24 所示,斑點部份為 Haar 小波遮罩運算
一階導數值(dx 與 dy),灰色扇形為掃描視窗,箭頭長度為經過加總後的大小,
箭頭方向則表示為特徵點方向。




                   圖 2.24:主方向示意圖[38]


2.4.3.2.3. 特徵點描述
   SURF 特徵點描述的建立是以特徵點為中心建立一個邊長為20σ大小的正
方形區域,並將區域內每5σ邊長大小劃分成子區域。在各個子區域中,進行以
邊長為2σ大小的一階Haar 小波遮罩進行運算(dx與dy),以最左上角第一個像素
點起,每隔σ像素的距離進行一次運算,因此每個Haar 小波在每個子區域內共
計算25次,如圖 2.25所示。




                           36
圖 2.25:特徵點描述示意圖[38]


    最後每個子區域分別累計成 Σdx、Σdy、︱Σdx︱與︱Σ dy︱的一組四個加

總值表示向量,此 16 個子區域的特徵向量便可形成一個描述該特徵點的 4*4
*4=64 維度的特徵描述子。


2.4.3.3. 小結
    在開發「無標記擴增實境數位學習系統」追蹤技術上,必須講求的是即時
且穩定快速的追蹤,而上述 SIFT 及 SURF 等 2 項特徵點比對方法,對旋轉、
尺度縮放等變化都可保持不變性 另對視角變化 仿射變換也保有相當穩定性,
              ,      、
可用於「無標記擴增實境數位學習系統」追蹤技術極為合適。本文將於錯誤! 找
不到參照來源。節比較分析兩種方法用在「無標記擴增實境數位學習系統」適
用性,並採用效能較佳之方法。


2.4.4. 座標轉換
    由於在3D物件要在螢幕上與現實場景結合,而螢幕上的影像平面為2D座標,
故必需將3D圖形投影成2D圖形,並運用一些3D效果,讓2D圖形看起來有3D感
覺。轉換公式如(2.20),而攝影機的參數矩陣計算採用1997年Heikkila和Silven的
方法[40]。


                       37
1 0         0 0
                         R      −Rt
q ≅ K �0 1         0 0� � T         � ������ = K[R |−Rt]������ = M������
                         0       1
       0 0         1 0                                          (2.20)

       公式(2.20)中 K 為相機校正矩陣公式如(2.21),當中 Cx 與 Cy 分別代表 x 與
y 上的偏移量, 而 fx 與 fy 分別代表在真實的感光耦合元件(Charge Coupled
Devices, CCD)相機中,在物理意義上 X 方向與 Y 方向之量值不一定為 1 比 1,
而影像上的像素並非 1 比 1,則必須在 X 與 Y 方向各導入一個比例參數,故
fx 與 fy 分別代表比例參數的座標點;另在感光耦合元件相機中,物理意義上的
像素也不一定是矩形,故 s 則代表 X 軸與 Y 軸的歪斜參數。


     fx      s    cx
K = �0      fy    cy �
     0      0     1                                             (2.21)

                         R    −Rt
                                  � ������ 代表相機座標系統( Q c ),展開後公式(2.22),其中
                         0T    1
������為世界座標系統三維座標點,t 為位移轉換代表攝影機在世界座標系統位置,
       公式(2.20)中�



R 為旋轉矩陣代表攝影機之方向。


 R1    R2    R3     t x Xm
             R6     t y Ym
�R 4   R5              �� �
 R7    R8    R9     t z Zm
 0     0     0      1    1                                      (2.22)




                                            38
3. 無標記擴增實境視覺追蹤系統
   本章首先分析影響無標記擴增實境視覺追蹤辨識因素,接著介紹無標記擴
增實境視覺追蹤技術,最後說明如何運用無標記擴增實境技術建立數位學習環
境。


3.1. 影響無標記擴增實境視覺追蹤辨識因素分析
   影像處理領域的追蹤及辨識是擴增實境底層核心技術之一 如 2.3.2 節所述
                            ,
當在進行影像追蹤、辨識及定位時,會受「環境光源」、「辨識圖樣角度」、
「影像解析度」 「辨識圖樣材質」 4 項基礎因素影響,而就本文所提運用
       、        等                  「無
標記擴增實境數位學習系統」能即時追蹤各式真實物件技術下,考量使用環境
大都為室內,且影像解析度基本要求為 640*480,故受「環境光源」及「影像
解析度」因素影響不大。辨識物件本身複雜度會受「辨識圖樣角度」及「辨識
圖樣材質」影響;移動速度快慢在視覺追蹤中會影響追蹤效能,故本節對「物
件複雜度」及「物件移動速度」影響追蹤效果進行說明。


3.1.1. 物件複雜度
   物件的複雜度係指追蹤辨識物件上是否具有可供追蹤辨識的「特徵點」,
高複雜度物件代表該物件具備「多特徵點」;反之,低複雜度物件則表示具備
「較少特徵點」。具備高複雜度之物件容易從影像中辨識與追蹤,低複雜度之物
件則不易追蹤與辨識,故追蹤辨識的效能會受物件複雜度影響。如圖 3.1 所示
(a)為低複雜度物件,以及 SURF 之方法所找到之特徵點,(b)為高複雜度物件,
以及 SURF 之方法所找到之特徵點。很明顯可以看出高複雜度之物件具備較多
的特徵點,利於物件辨識與追蹤。




                      39
圖 3.1:物件複雜度對物件辨識追蹤之影響: (a) 低複雜度物件及 SURF 特徵
點、(b) 高複雜度物件及 SURF 特徵點。


3.1.2. 物件移動速度
   追蹤物的移動速度,係指追蹤辨識物件在影像中的移動速度,通常在追蹤
辨識物件時 運用目標物移動所造成與背景差異 再取得前景區域後進行辨識。
     ,               ,
因此在即時追蹤辨識中,系統運算速度必須夠快,否則移動物件速度太快,可
能造成在系統運算完畢後,而物件已不在該位置,形成誤判,如圖 3.2 所示。
圖中(a)為設定追蹤物件 (b)及(c)以正常速度移動物件時 則都可順利追蹤物件
            ;                 ,         ;
圖中(d)為當物件快速移動時,則因移動速度太快,導致追蹤誤判。




圖 3.2 物件移動速度對追蹤物件之影響 (a)設定追蹤物件;(b)及(c)物件以正
     :              :
常速度移動;(d)物件快速移動。

                     40
3.1.3. 小結
   在「無標記擴增實境」中,如果追蹤辨識效能高,學習者在操作系統時,
才可以隨心所欲的移動辨識的物件,增加系統的實用性。相對的如果追蹤辨識
效能太慢,則學習者移動物件速度將受到限制,系統的實用性將有所侷限。


3.2. 無標記擴增實境視覺追蹤技術
   本提出適用於「無標記擴增實境數位學習系統」能即時追蹤各式真實物件
技術,主要分為四步驟:
          「框選追蹤物件」「色彩空間轉換」「物件偵測追蹤」
                  、       、
及「定位顯像」。詳細流程如圖 3.3 所示。




                           預先定義
                            3D物件

     視訊影像


   框選追蹤物件




                                   擴增實
   色彩空間轉換    物件偵測追蹤        定位顯像
                                   境畫面

            圖 3.3:無標記擴增實境系統流程圖


   首先於影像畫面中,框選出追蹤物件,其次將物件及視訊影像色彩空間轉
換為灰階,增加運算效率。接著運用物件偵測方法,擷取出物件特徵值,並運
用物件追蹤技術,持續追蹤移動物件。最後利用定位顯像技術,將座標轉換及
疊加 3D 物件於追蹤物件上。


                      41
3.2.1. 框選追蹤物件
    為了能正確且快速將 3D 物件疊加於追蹤物件,本文採用手動方式框選追
蹤物件,主要原因在於若採用自動偵測影像中移動物件,在取得初步移動物件
影像後,仍需經過複雜程序以判斷或去除其他非移動物件之部份,以正確且完
整取得移動物件。其次若欲同時處理多個移動物件,則須比對判斷出各正確物
件,會增加系統運算時間且降低整體效能。故本文採用手動框選方式以降低運
算複雜度,有效提昇整體系統效能。另在框選物件時須注意下列事項:
1.框選時應儘量避免框選過多背景部份(非物件區域)。
2.若物件外觀為不規則形,則框選時應以物件內最大矩形為框選區域。
    此外,可採用載入物件圖像的方法,來取代框選追蹤物件,以增加本文所
提技術實用性。


3.2.2. 色彩空間轉換
    為快速比對及追蹤移動物件,本文將框選之移動物件及擷取之視訊框轉換
為灰階影像,以降低計算維度,增加運算效率,轉換公式如(3.1) [31]。


I = 0.299 × R + 0.587 × G + 0.114 × B        (3.1)


3.2.3. 物件偵測追蹤
    本流程主要在於能持續辨識與追蹤框選物件,以獲取追蹤物件在影像中的
相對位置及方向,俾利後續定位顯像放置 3D 物件使用。流程圖如圖 3.4 所示,
主要步驟分為「擷取特徵點」「物件追蹤」「擷取移動區域特徵點」及「單應
             、    、
性計算」等 4 項,詳細說明分述如后:




                                        42
載入
    全幅區域影像
                                                     物件特徵點
           框選              擷取
         框選區域影像            特徵點                設定影像
                                              全幅區域

                                                         < 15

   判斷載入
   或是框選                          擷取移動         移動區域    特徵點
                          物件
                                 區域特徵          特徵點     比對
                         灰階影像
                            影像
                                                        > 15
                           特徵點
  框選物件            載入物件
                                                      單應性
                                                       計算
                                 物件移
                                 動區域                  4個角點


                                                     追蹤物件
              灰階影像        物件追蹤                                  4個角點   定位顯像
                                                      資訊

    影像                                 4個角點


                         圖 3.4:物件偵測追蹤流程圖


3.2.3.1. 特徵點擷取
   本文提出「無標記擴增實境數位學習系統」,期望能即時追蹤各式真實物
件,且持續穩定呈現 3D 物件,以獲得良好學習成效,因此持續對物件偵測追蹤
更顯相當重要,而且必須審慎擷取物件特徵點。在擴增實境實際運用中,物件
會隨著不同的需求而有所旋轉、尺度縮放、亮度、視角及仿射變化等等,因此
物件特徵點必須能抵抗這些變化。所以本文採用 SIFT[34]及 SURF[38]特徵點擷
取方法,詳如方法如 2.4.3.1 節及 2.4.3.2 節所述,本文將分析兩種方法用在「無
標記擴增實境數位學習系統」之優缺點。SIFT 方法係採用美國俄勒岡州州立大
學 Rob Hess 所提供之 SIFT 函式庫[41],影像金字塔層數設為 4 層,高斯模糊
σ 設定為 1.6,共產生 16 個不同尺度空間,8 個尺度極值搜尋層,特徵向量維
度設為 128 維。另 SURF 係採用 OpenCV2.2 版所提供函式庫[42],參數設定為
金字塔層數設為 4 層,共產生 16 個不同尺度空間,8 個尺度極值搜尋層,特徵
向量維度設為 64 維。詳細步驟如下所述:
步驟一:影像輸入可分為框選或載入物件,首先判斷影像來源為框選或載入。

                                  43
步驟二:來源為框選物件時步驟如下:
 對框選物件影像擷取 SURF 特徵點,並設定 3D 虛擬物件所相對方向。
 計算 SURF 特徵點在影像中相對座標,以利後續物件追蹤流程進行追蹤。
 將 64 維 SURF 特徵點資訊提供給特徵點比對流程,以確認物件在影像中的
  相對位置及方向。
步驟三:來源為載入物件時步驟如下:
 分別對全幅區域影像及物件影像擷取 SURF 特徵點,並設定 3D 虛擬物件所
  相對方向。
 計算全幅區域影像 SURF 特徵在影像中相對座標,以利後續物件追蹤流程
  進行追蹤。
 將物件影像 64 維 SURF 特徵點資訊提供給特徵點比對流程,以確認物件在
  影像中的相對位置及方向。
   特徵點擷取結果如圖 3.5 所示,(a)為 SIFT 所擷取特徵點表示圖,影像大
小為 387*214,特徵點計 1,086 個,(b)為 SURF 所擷取特徵點表示圖,影像大
小為 387*214,特徵點計 274 個。由圖可知 SIFT 可取得特徵點較 SURF 多。




圖 3.5:SIFT 與 SURF 特徵點表示圖: (a)SIFT 特徵點;(b) SURF 特徵點。


   但經由錯誤! 找不到參照來源。節實驗結果得知 SURF 處理 1 幅 640*480
之影像,從擷取至完成比對特徵點時間約 1 秒,較 SIFT 快約 2.5 倍,就運用在

                          44
即時系統(每秒 15~30 張影像)上,SURF 較能實現在即時系統上,故本文採用
SURF 特徵演算法擷取特徵。


3.2.3.2. 物件追蹤
   經由錯誤! 找不到參照來源。節實驗結果得知 SURF 處理 1 幅 640*480 之
影像,從擷取至完成比對特徵點時間約 1 秒,在匹配比對時,若對匹配影像全
域擷取特徵點再與目標影像特徵點一一比對,然而當匹配區域越小相對匹配時
間,可縮短幅度越大,但若縮小影像大小,則所獲得特徵點相對越少不利於後
續追蹤匹配,故若配合光流法在獲得移動區域後,可以有效降低匹配區域大小
而不是縮小影像大小,應可縮短匹配時間,且並不會減少匹配點,對後續追蹤
可更加有利。
   由上所述本流程主要目的為偵測出移動區域,以縮小 SURF 擷取特徵及影
像比對匹配區域,以縮短 SURF 處理時間。而方法將採用 2.4.1.1 節所述「金字
塔 L-K 光流法」[24]原因係其僅對所提供特徵點座標位置區域光流場進行分析
計算,故在計算上更顯快速簡單。所使用 OpenCV 所提供函式,金字塔結構採
用 5 層,為原始輸入影像解析度為 640*480,故 L0 為原始影像解析度,L1 為
L0 層解析度一半為 320*240,L2 又為 L1 層解析度的一半為 160*120,L3 又
為 L2 層解析度一半為 80*60,L4 又為 L3 層解析度一半為 40*30,其連續追
蹤情形如圖 3.6 所示,圖中最左第 1 張為手動框選追蹤物件,綠色點部份則為
SURF 特徵點座標,依序為連續追蹤情形。詳細步驟如下所述:
步驟一:輸入影像為框選物件時,則「金字塔 L-K 光流法」追蹤用特徵點座標
       為框選物件 SURF 特徵點在影像中的相對座標。
步驟二:輸入影像為載入物件時,首先「金字塔 L-K 光流法」追蹤用特徵點座
       標為全幅區域影像 SURF 特徵點在影像中的相對座標,其後因可知物
       件準確位置,故後續僅對物件準確位置特徵點座標進行追蹤。
                        45
步驟三:OpenCV 中「金字塔 L-K 光流法」函式,輸出結果為特徵點移動後座
       標位置 而移動區域計算方式為取所有特徵點中 X 與 Y 座標最大值及
          ,
       最小值,二點可繪出一矩形,此矩形區域亦為移動區域。




             圖 3.6:金字塔 L-K 光流法連續追蹤表示圖


3.2.3.3. 擷取移動區域特徵點
   本流程主要目的為對移動區域擷取 SURF 特徵點,以供後續特徵點比對使
用,所用函數及參數設定均與 3.2.3.1 節相同。


3.2.3.4. 特徵點比對
   本流程主要目的為將物件特徵點與移動區域特徵點進行比對,使用方法係
運用 SURF 作者於文中所提特徵匹配方法,在運用 RANSAC 演算法去除匹配
錯誤特徵點,最後經由錯誤! 找不到參照來源。節實驗得知在後續在單應性計
算時,至少需 15 個點特徵點方能計算出完整繪出矩形框,故條件限定當特徵點
高於 15 點時判定為成功並將相關資訊傳至下一流程,反之,判定為失敗,失敗
則改以擷取全螢幕特徵點,再重新進行追蹤比對。


3.2.3.5. 單應性計算
   本流程主要目的為運用單應性特性,計算物件在影像中完整相對位置,並
對物件輪廓繪製矩形框,進而獲取 4 個角點,以利後續座標轉換使用,示意圖

                        46
如圖 3.7 所示 關於單應性計算本文採用 OpenCV 之 cvFindHomography 函式,
         。
此非本文之研究重點,故未做深入之探討。
   cvFindHomography 函數之參數帶入特徵點座標來取得對應之 4 個角點座標,
特徵點數量越多,輸出角點位置越準確,在前流程提及於錯誤! 找不到參照來
源。節實驗中得知,至少需 15 個點特徵點方能計算出完整繪出矩形框。




                圖 3.7:單應性計算示意圖


3.2.4. 定位顯像
   在獲取移動物件在影像中的相對位置後,可將 3D 物件疊加在適當位置。
但因螢幕上的影像平面為 2D 座標,故需先行將座標轉換,俾利後續 3D 物件的
疊加。其流程分為「座標轉換」及「疊加 3D 物件」等 2 項,流程圖如圖 3.8
所示,各項作法分述如下:



   追蹤物                                     擴增實
                座標轉換          疊加3D物件
   件資訊                                     境畫面


                 圖 3.8:定位顯像流程圖




                         47
3.2.4.1. 座標轉換
   本流程為將影像平面之 2D 座標轉換為 3D 座標,以利後續 3D 物件疊加,
座標轉換方法為 2.4.4 節所述 1997 年 Heikkila 和 Silven 所提出的計算攝影機的
參數矩陣方法[40],所使用函式 ARStudio 中所設計視覺追蹤模組之 Markerless
功能,其設計原理為將單應性計算流程中所得 4 個角點座標帶入 ARToolKit 之
座標轉換函式進行座標轉換。


3.2.4.2. 疊加 3D物件
   本流程為將 3D 虛擬物件疊加至移動物件在影像中的相對位置,關於相關
繪製三維影像,本文採用 ARStudio 中所設計之影像繪製模組,其設計原理為運
用 OpenVRML 函式庫繪製三維影像,故只需要將物件追蹤之座標資訊及虛擬
物件資訊填入相對應之結構變數中,影像繪圖模組便可將指定之三維模型疊加
在移動物件上。疊加後影像如圖 3.9 至圖 3.11 所示,其中分別為物件近、中及
遠距離擴增實境畫面。




                          48
圖 3.9:物件近距離擴增實境畫面




圖 3.10:物件中距離擴增實境畫面




        49
圖 3.11:物件遠距離擴增實境畫面


3.3. 運用無標記擴增實境技術建立數位學習環境
   利用本文 3.2 節所提出之「無標記擴增實境視覺追蹤技術」 可用來製作
                               ,      「無
標記擴增實境」之數位教材,或建立「無標記擴增實境」之數位學習環境,主
要分為「先期準備階段」「系統開發階段」及「完成測試階段」等三個階段,
          、
分述如下:


3.3.1. 先期準備階段
   本階段主要依系統目的來決定「硬體」「開發平台」及「撰寫腳本」等三
                   、
項,概述如下:
1. 選擇硬體:選擇符合系統運算效能需求之電腦、3D 繪圖卡、顯示器或頭戴
 顯示器及攝影機。
2. 開發平台:系統開發人員,依系統目的選擇符合需求的開發平台,如
 ARToolkit Professional Edition、D’ Fusion、Unifeye Design 或 ARStudio 等。

                                 50
3. 撰寫腳本:依系統目的設計所呈現內容及劇情,其中呈現內容包含決定系統
 使用「標記」或「無標記」,虛擬物件相對真實物體的擺放位置,如在真實
 物體之上或取代真實物體等等。


3.3.2. 系統開發階段
   本階段主要係依據所設計腳本,來開發相對應系統,區分為「程式撰寫」
及「3D 物件繪製」等二項,概述如下:
1. 程式撰寫:程式設計人員應依「腳本」開發程式,著重點在於設定真實物體
 與虛擬物件彼此相關聯性及互動效果。
2. 3D 物件繪製:3D 物件繪製人員應依力求 3D 物件實用及美觀,並可細分「骨
 架」「模型」「貼圖」及「動作設計」等四項流程。
   、  、


3.3.3. 完成測試階段
   本階段係在於測試系統完整性,測試內容應依「設計腳本」逐一測試,另
物件追蹤效能關係著系統的實用性,故物件追蹤效能應一併納入測試。




                    51
4. 全文下載
    本文僅節錄全文之前三章,若需要較詳細之實驗方法與數據,請參考下面
兩篇論文之介紹。



4.1. 無標記擴增實境實驗平台建置與追蹤技術驗證
    擴增實境技術是在真實視訊影像中加入虛擬物件 並透過追蹤與定位技術
                         ,          ,
可以與人們產生良好之互動效果。在視覺追蹤應用領域裡,可分為標記與無標
記兩類應用。標記識別技術較為成熟,目前擴增實境開發平台以採用標記識別
為主;至於無標記則侷限在特定方法之識別追蹤應用領域,例如樂高玩具利用
包裝盒上之印刷圖片當作辨識物件。面對無標記擴增實境之應用日趨重要,且
必須因應不同物件採用不同特徵之識別追蹤方法來達成無標記擴增實境之應用。
而目前擴增實境平台並不提供模組化方式來替換識別追蹤方法,因此本文提出
無標記擴增實境實驗平台,以現有擴增實境套件 ARtoolKit 為基礎,整合
OpenCV 與 OpenGL 函式庫,並採用模組化方式來設計視覺追蹤方法,做為驗
證無標記擴增實境識別追蹤方法之平台,且透過視窗操作選擇不同視覺追蹤模
組來呈現各式追蹤方法,以利分析驗證追蹤效能。


作者: 鍾德煥
簡介: 主要建置 ARStudio 並採用 SURF 來實現無標記擴增實境之應用。
下載: http://ndltd.ncl.edu.tw
連結: http://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/login?o=dnclcdr&s=id=%22
        099CCIT0394011%22.&searchmode=basic




                                    52
4.2. 運用擴增實境技術建 立數位學習環境
    隨著擴增實境技術日趨成熟,為 了製作更活潑的數位教材或建立更有效率
的數位學習環境,運用擴增實境技術建立數位學習環境之應用與日俱增。目前
相關應用大部分均侷限在標記(marker)擴增實境技術 但無標記(markerless)擴增
                           ,
實境技術使用上更具彈性,不必受限於標記的使用,應用層面更廣。視覺追蹤
技術是擴增實境重要底層核心技術之一,但在實際應用上會受周邊環境光源、
辨識圖樣角度、影像解析度、辨識圖樣材質等 4 項因素影響。另外,在「無標
記擴增實境數位學習系統」相關應用中追蹤物件的複雜度及移動速度更會影響
追蹤辨識效果,因為好的物件辨識與追蹤效能,學習者在操作系統時,才可以
隨心所欲的移動辨識的物件,以增加系統的實用性。
    本論文主要提出如何運用擴增實境的技術來製作數位教材及建立數位學習
環境,並分析現有運用在「無標記擴增實境 數位學習系統」追蹤技術的限制因
素,進而提出能追蹤各式真實物件及降低物件移動速度對物件追蹤影響之無標
記物件追蹤技術。本文所提之方法就技術層面而言能提昇無標記擴增實境的實
用性及普及性;就應用層面而言可瞭解製作擴增實境 數位教材及實現數位學習
環境相關問題。例如運用於國軍軍事裝備維修上,可有效降低人員訓練時間及
成本,並能迅速維修以提昇裝備妥善 率;用於軍中的戰術教學,可使內容更加
生動,以提昇學習者之學習興趣。


作者: 李正豪
簡介: 主要利用 SURF 搭配 ARStudio 來運作無標記擴增實境之應用,有較多
        之 SURF 與 SIFT 之實驗數據。
下載: http://ndltd.ncl.edu.tw
連結: http://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/login?o=dnclcdr&s=id=%22


                                    53
099CCIT0394007%22.&searchmode=basic


指導教授:     王順吉 副教授
網頁:       http://csie.ccit.ndu.edu.tw/files/14-1011-1274,r141-1.php




                                   54
參考文獻
[1] 吳聲毅,數位學習觀念與實作,學貫行銷股份有限公司,台北、台灣,第
    3.2-3.3 頁,2008。
[2] Johnson, L., Levine, A., Smith, R., and Stone, S., “The 2010 Horizon Report,”
    The NEW MEDIA CONSORT IUM and EDUCASE Learning Initiative,
    California, U.S.A, pp. 9-12、21-24, 2010
[3] 薛凱文,“擴增實境應用探討—使用無標記技術”,嶺東科技大學數位媒體
    研究所碩士論文,台中,2009。
[4] 鄒景平 數位學習最佳指引
       ,        -數位學習概論 資策會數位教育研究所 台北、
                       ,          ,
    台灣,第 1.2 頁-第 1.23 頁,2007。
[5] Johnson, L., Levine, A., and Smith, R., “The 2009 Horizon Report,” The NEW
    MEDIA CONSORT IUM and EDUCASE Learning Initiative, California,
    U.S.A, pp. 8-10, 2009。
[6] Paul Milgram, Haruo Takemura, Akira Utsumi, Fumio Kishino, “Augmented
    reality:A class of display on the reality-virtuality continuum,” Telemanipulator
    and Telepresence Technologies, SPIE Vol. 2351, pp. 282-292, 1994.
[7] 吳鴻譯,Steven K. Feiner 撰文,“擴增實境-虛擬實境的無限延伸”,科學人
    雜誌,第 04 期,2002 年 06 月。
[8] Azuma, R. T.,“A survey of augmented reality,” Teleoperators and Virtual
    Environments ,6,4, pp. 355-385,1997.
[9] Oliver Bimber. and Ramesh Raskar., Spatial Augmented Reality Merging Real
    and Virtual Worlds, Wellesley, assachusetts, U.S.A ,A K Peters, Ltd ,Chap.1,
    pp. 1-7, 2005
[10] ARToolket Maker, http://roarmot.co.nz/ar/。
[11] ARToolket Support Library, http://www.artoolworks.com/support/library/Cr
    eating_and_training_new_ARToolKit_markers
                                         55
[12] ARToolket, http://www.hitl.washington.edu/artoolkit/。
[13] Georgia Tech Augmented Environments Lab,http://www.augmentedenviron
    ments.org/lab/research/handheld-ar/arhrrrr/
[14] Andre´ Buchau , Wolfgang M. Rucker , Uwe Wo¨ssner and Martin Beck
    er, “Augmented reality in teaching of electrodynamics, ” The International
     Journal for Computation and Mathematics in Electrical and Electronic En
    gineering, Vol. 28 No. 4, pp. 948-963,2009.
[15] Trond Nilsen, Julian Looser, “Tankwar Tabletop war gaming in augmented
     reality,” In Proceedings of 2nd International Workshop on Pervasive Gam
    ing Applications, 2005.
[16] Steve Henderson and Steve Feiner, “Evaluating the Benefits of Augmented
    Reality for Task Localization in Maintenance of an Armored Personnel Carrier
    Turret,” Proceeding of IEEE International Symposium on Mixed and Augmented
    Reality (ISMAR '09), October 2009, pp. 135-144.
[17] TOTAL IMMERSION, http://www.t-immersion.com
[18] METAIO, http://www.metaio.com
[19] W. Hu, T. Tan, L. Wang, and S. Maybank, “A survey on visual surveillance of
    object motion and behaviors,” IEEE Transactions on Systems, Man and
    Cybernetics, Part C: Applications and Reviews, Vol. 34, pp. 334-352, 2004.
[20] B.K.P. Horn and B.G. Schunck, “Determining optical flow.,” Artificial
    Intelligence, vol 17, pp. 185-203, 1981.
[21] 陳冠儒,“光流值準確性之提升”,私立逢甲大學電機工程研究所碩士論
    文,台中,2007。
[22] B. D. Lucas and T. Kanade,“An Iterative Image Registration Technique
    with an Application to Stereo Vision” Proceedings of Imaging Understan
    ding Workshop , pp. 121-130, 1981.


                                         56
運用擴增實境技術建立數位學習環境(精簡版)
運用擴增實境技術建立數位學習環境(精簡版)
運用擴增實境技術建立數位學習環境(精簡版)
運用擴增實境技術建立數位學習環境(精簡版)

More Related Content

Viewers also liked

É possível medir se um gigante é ágil?
É possível medir se um gigante é ágil?É possível medir se um gigante é ágil?
É possível medir se um gigante é ágil?Alan Braz
 
Agile2015 short paper presentation: Development of Complex Software with Agil...
Agile2015 short paper presentation: Development of Complex Software with Agil...Agile2015 short paper presentation: Development of Complex Software with Agil...
Agile2015 short paper presentation: Development of Complex Software with Agil...Alan Braz
 
Expert Voices
Expert VoicesExpert Voices
Expert Voicesolmscheid
 
Seethrough Best global brand 2011
Seethrough Best global brand 2011Seethrough Best global brand 2011
Seethrough Best global brand 2011nudeJEH
 
Dat testing - An introduction to Java and Android Testing
Dat testing - An introduction to Java and Android TestingDat testing - An introduction to Java and Android Testing
Dat testing - An introduction to Java and Android TestingSaúl Díaz González
 
Gandhi Heritage Portal ... A March towards preserving heritage
Gandhi Heritage Portal ... A March towards preserving heritageGandhi Heritage Portal ... A March towards preserving heritage
Gandhi Heritage Portal ... A March towards preserving heritageDr. Viratkumar Kothari
 
สนใจ ไม่ได้แปลว่าได้ใจ
สนใจ ไม่ได้แปลว่าได้ใจสนใจ ไม่ได้แปลว่าได้ใจ
สนใจ ไม่ได้แปลว่าได้ใจnudeJEH
 

Viewers also liked (20)

Indian polity 11
Indian polity 11Indian polity 11
Indian polity 11
 
É possível medir se um gigante é ágil?
É possível medir se um gigante é ágil?É possível medir se um gigante é ágil?
É possível medir se um gigante é ágil?
 
Fichas de lectura .docx1
Fichas de lectura .docx1Fichas de lectura .docx1
Fichas de lectura .docx1
 
Material in 30 minutes
Material in 30 minutesMaterial in 30 minutes
Material in 30 minutes
 
Agile2015 short paper presentation: Development of Complex Software with Agil...
Agile2015 short paper presentation: Development of Complex Software with Agil...Agile2015 short paper presentation: Development of Complex Software with Agil...
Agile2015 short paper presentation: Development of Complex Software with Agil...
 
Hindswaraj
HindswarajHindswaraj
Hindswaraj
 
XTR
XTRXTR
XTR
 
January 2010
January 2010January 2010
January 2010
 
Sampleslideshow
SampleslideshowSampleslideshow
Sampleslideshow
 
Dom_Towarowy_Toruń_PDT
Dom_Towarowy_Toruń_PDTDom_Towarowy_Toruń_PDT
Dom_Towarowy_Toruń_PDT
 
Expert Voices
Expert VoicesExpert Voices
Expert Voices
 
Visual resume
Visual resumeVisual resume
Visual resume
 
Seethrough Best global brand 2011
Seethrough Best global brand 2011Seethrough Best global brand 2011
Seethrough Best global brand 2011
 
Triconf
TriconfTriconf
Triconf
 
Teste
TesteTeste
Teste
 
Dat testing - An introduction to Java and Android Testing
Dat testing - An introduction to Java and Android TestingDat testing - An introduction to Java and Android Testing
Dat testing - An introduction to Java and Android Testing
 
Gandhi Heritage Portal ... A March towards preserving heritage
Gandhi Heritage Portal ... A March towards preserving heritageGandhi Heritage Portal ... A March towards preserving heritage
Gandhi Heritage Portal ... A March towards preserving heritage
 
สนใจ ไม่ได้แปลว่าได้ใจ
สนใจ ไม่ได้แปลว่าได้ใจสนใจ ไม่ได้แปลว่าได้ใจ
สนใจ ไม่ได้แปลว่าได้ใจ
 
Mirsis Autocontrol İç Kontrol Yönetimi
Mirsis Autocontrol İç Kontrol YönetimiMirsis Autocontrol İç Kontrol Yönetimi
Mirsis Autocontrol İç Kontrol Yönetimi
 
Getting started with Big Data
Getting started with Big DataGetting started with Big Data
Getting started with Big Data
 

Similar to 運用擴增實境技術建立數位學習環境(精簡版)

浙江电信移动业务接入实践20100513
浙江电信移动业务接入实践20100513浙江电信移动业务接入实践20100513
浙江电信移动业务接入实践20100513Bob Huang
 
Graduation Thesis
Graduation ThesisGraduation Thesis
Graduation ThesisYifan Zhai
 
Graduate Design - Nutrient
Graduate Design - NutrientGraduate Design - Nutrient
Graduate Design - NutrientHaoxiang Shen
 
CloudTao技术白皮书
CloudTao技术白皮书CloudTao技术白皮书
CloudTao技术白皮书FIT2CLOUD
 
Iedudata学业能力追踪诊断服务介绍
Iedudata学业能力追踪诊断服务介绍Iedudata学业能力追踪诊断服务介绍
Iedudata学业能力追踪诊断服务介绍zion chu
 
Csdn Java电子杂志第2期
Csdn Java电子杂志第2期Csdn Java电子杂志第2期
Csdn Java电子杂志第2期yiditushe
 
中国移动互联网发展状况调查报告
中国移动互联网发展状况调查报告中国移动互联网发展状况调查报告
中国移动互联网发展状况调查报告bihaizhou
 
数据分析系统架构设计
数据分析系统架构设计数据分析系统架构设计
数据分析系统架构设计学峰 司
 
《云计算核心技术剖析》Mini书
《云计算核心技术剖析》Mini书《云计算核心技术剖析》Mini书
《云计算核心技术剖析》Mini书ikewu83
 
Csdn Emag(Oracle)第三期
Csdn Emag(Oracle)第三期Csdn Emag(Oracle)第三期
Csdn Emag(Oracle)第三期yiditushe
 
Moodle學習心法(2010年第二版)
Moodle學習心法(2010年第二版)Moodle學習心法(2010年第二版)
Moodle學習心法(2010年第二版)Pau Fong Yong
 
White paper apc3.0
White paper apc3.0White paper apc3.0
White paper apc3.0ahnlabchina
 
Java explore
Java exploreJava explore
Java exploreRoger Xia
 
詹翔霖教授 100年提升勞工自主學習計畫作業手冊
詹翔霖教授 100年提升勞工自主學習計畫作業手冊詹翔霖教授 100年提升勞工自主學習計畫作業手冊
詹翔霖教授 100年提升勞工自主學習計畫作業手冊文化大學
 
人臉偵測應用於學習專注力 與群組參與度之分析
人臉偵測應用於學習專注力 與群組參與度之分析人臉偵測應用於學習專注力 與群組參與度之分析
人臉偵測應用於學習專注力 與群組參與度之分析xilin peng
 
2006 年中国博客调查报告
2006 年中国博客调查报告2006 年中国博客调查报告
2006 年中国博客调查报告sugeladi
 
J Boss+J Bpm+J Pdl用户开发手册 3.2.3
J Boss+J Bpm+J Pdl用户开发手册 3.2.3J Boss+J Bpm+J Pdl用户开发手册 3.2.3
J Boss+J Bpm+J Pdl用户开发手册 3.2.3yiditushe
 
GCC_Porting_on_MiniSystem
GCC_Porting_on_MiniSystemGCC_Porting_on_MiniSystem
GCC_Porting_on_MiniSystemXiaojing Ma
 

Similar to 運用擴增實境技術建立數位學習環境(精簡版) (20)

浙江电信移动业务接入实践20100513
浙江电信移动业务接入实践20100513浙江电信移动业务接入实践20100513
浙江电信移动业务接入实践20100513
 
Graduation Thesis
Graduation ThesisGraduation Thesis
Graduation Thesis
 
Graduate Design - Nutrient
Graduate Design - NutrientGraduate Design - Nutrient
Graduate Design - Nutrient
 
Cnnic:2011年中国搜索引擎市场研究报告
Cnnic:2011年中国搜索引擎市场研究报告Cnnic:2011年中国搜索引擎市场研究报告
Cnnic:2011年中国搜索引擎市场研究报告
 
CloudTao技术白皮书
CloudTao技术白皮书CloudTao技术白皮书
CloudTao技术白皮书
 
Iedudata学业能力追踪诊断服务介绍
Iedudata学业能力追踪诊断服务介绍Iedudata学业能力追踪诊断服务介绍
Iedudata学业能力追踪诊断服务介绍
 
Csdn Java电子杂志第2期
Csdn Java电子杂志第2期Csdn Java电子杂志第2期
Csdn Java电子杂志第2期
 
中国移动互联网发展状况调查报告
中国移动互联网发展状况调查报告中国移动互联网发展状况调查报告
中国移动互联网发展状况调查报告
 
数据分析系统架构设计
数据分析系统架构设计数据分析系统架构设计
数据分析系统架构设计
 
《云计算核心技术剖析》Mini书
《云计算核心技术剖析》Mini书《云计算核心技术剖析》Mini书
《云计算核心技术剖析》Mini书
 
Csdn Emag(Oracle)第三期
Csdn Emag(Oracle)第三期Csdn Emag(Oracle)第三期
Csdn Emag(Oracle)第三期
 
Moodle學習心法(2010年第二版)
Moodle學習心法(2010年第二版)Moodle學習心法(2010年第二版)
Moodle學習心法(2010年第二版)
 
White paper apc3.0
White paper apc3.0White paper apc3.0
White paper apc3.0
 
Java explore
Java exploreJava explore
Java explore
 
詹翔霖教授 100年提升勞工自主學習計畫作業手冊
詹翔霖教授 100年提升勞工自主學習計畫作業手冊詹翔霖教授 100年提升勞工自主學習計畫作業手冊
詹翔霖教授 100年提升勞工自主學習計畫作業手冊
 
人臉偵測應用於學習專注力 與群組參與度之分析
人臉偵測應用於學習專注力 與群組參與度之分析人臉偵測應用於學習專注力 與群組參與度之分析
人臉偵測應用於學習專注力 與群組參與度之分析
 
2006 年中国博客调查报告
2006 年中国博客调查报告2006 年中国博客调查报告
2006 年中国博客调查报告
 
CNNIC:2011年四川省互联网发展状况统计报告
CNNIC:2011年四川省互联网发展状况统计报告CNNIC:2011年四川省互联网发展状况统计报告
CNNIC:2011年四川省互联网发展状况统计报告
 
J Boss+J Bpm+J Pdl用户开发手册 3.2.3
J Boss+J Bpm+J Pdl用户开发手册 3.2.3J Boss+J Bpm+J Pdl用户开发手册 3.2.3
J Boss+J Bpm+J Pdl用户开发手册 3.2.3
 
GCC_Porting_on_MiniSystem
GCC_Porting_on_MiniSystemGCC_Porting_on_MiniSystem
GCC_Porting_on_MiniSystem
 

運用擴增實境技術建立數位學習環境(精簡版)

  • 1. 國防大學理工學院資訊工程學系 資訊科學碩士班 碩士學位論文 運用擴增實境技術建立數位學習環境 研 究 生 : 李 正 豪 指 導 教 授 : 王 順 吉 中 華 民 國 一 O O 年 五 月 九 日
  • 3. iii
  • 4. 誌謝 本研究論文之完成,首先感謝恩師王順吉老師悉心無私教誨、耐心指導與 督促,得以順利完成,使本人不僅能在學識上有所獲益,更能在為人處世及事 理分析等各方面更成熟穩健,師恩浩蕩,特於卷首致上最誠摯的謝意! 論文口試期間,幸蒙銘傳大學資電學院賈叢林院長、台北大學資訊工程學 系黃俊堯主任及本院賴義鵬教授、陳丙堃教授,鼎力斧正,使論文更完整,衷 心感謝。在學習過程中,感謝實驗室智仁、鼎捷學長於課業及研究 領域的指導, 以及鍾德煥同學與陳昭瑞同學的互相勉 勵,加上佳萱、宣羽和捷文同學,蒼昱、 周志偉及沈學弟在論文撰寫及口試期間的多方協助,在此一併誌謝。 衷心感謝生育與教養的父母,於求學過程中給予的鼓勵。也感謝憲兵司令 部刑事鑑識中心同事給予求學階段各項幫助,使本人能無後顧之憂在課業上專 心研究。最後謹將這份成果獻給每一位幫助過我的貴人,有你們支持及鼓勵, 才能使本論文達臻善臻美。 iv
  • 5. 摘要 隨著擴增實境技術日趨成熟,為了製作更活潑的數位教材或建立更有效率 的數位學習環境,運用擴增實境技術建立數位學習環境之應用與日俱增。目前 相關應用大部分均侷限在標記(marker)擴增實境技術,但無標記(markerless) 擴增實境技術使用上更具彈性,不必受限於標記的使用,應用層面更廣。視覺 追蹤技術是擴增實境重要底層核心技術之一,但在實際應用上會受周邊環境光 源、辨識圖樣角度、影像解析度、辨識圖樣材質等 4 項因素影響。另外,在「無 標記擴增實境數位學習系統」相關應用中追蹤物件的複雜度及移動速度更會影 響追蹤辨識效果,因為好的物件辨識與追蹤效能,學習者在操作系統時,才可 以隨心所欲的移動辨識的物件,以增加系統的實用性。 本論文主要提出如何運用擴增實境的技術來製作數位教材及建立數位學習 環境,並分析現有運用在「無標記擴增實境數位學習系統」追蹤技術的限制因 素,進而提出能追蹤各式真實物件及降低物件移動速度對物件追蹤影響之無標 記物件追蹤技術。本文所提之方法就技術層面而言能提昇無標記擴增實境的實 用性及普及性;就應用層面而言可瞭解製作擴增實境數位教材及實現數位學習 環境相關問題。例如運用於國軍軍事裝備維修上,可有效降低人員訓練時間及 成本,並能迅速維修以提昇裝備妥善率;用於軍中的戰術教學,可使內容更加 生動,以提昇學習者之學習興趣。 關鍵字:標記擴增實境,無標記擴增實境,數位學習,虛擬實境,特徵追蹤 v
  • 6. ABSTRACT As the techniques of creating augmented reality become more advanced, there is an increase in its use to create engaging digital teaching materials or a more efficient e-Learning environment. Recently, most relevant applications are limited to marker-based augmented reality techniques. However, markerless augmented reality techniques are more flexible and not limited by the use of markers, providing a broader range of applications. Visual tracking techniques is a critical core technique of augmented reality, and its use is often affected by the four factors of environmental lighting, image angle recognition, image resolution and image texture recognition. On the other hand, in a “markerless augmented reality e-Learning system”, the complexity and moving speed of the tracked object will also strongly affect tracking recognition. Only with high quality object identification and tracking abilities will the learners recognize objects and move them as they wish when operating the system, making it more applicable for its purpose. The purpose of this thesis is to provide recommendations on the use of augmented reality techniques to create digital learning material and e-Learning environments, and to analyze limiting factors in tracking techniques currently employed in “markerless augmented reality e-Learning systems”. We also recommend apply object tracking techniques for real-time tracking in which object speed has reduced effects on tracking ability. The methods that this study suggests will be able to raise the practicality and popularization of markerless augmented reality systems on a technical basis. On the basis of application, the methods will also allow people to understand the relevant issues in the creation of augmented reality digital learning materials and e-Learning environments. For example, when applied to the military equipment maintenance in the army of Taiwan, such digital learning schemes can effectively reduce personnel training time and costs, helping to vi
  • 7. improve maintenance quality and hence the performance of military equipments. When applied to training schemes of military tactics, the contents can be made dynamic to increase learners’ motivation and interest. Keywords: Marker-based Augmented Reality, Markerless Augmented Reality, e-Learning, Virtuality Environment, Feature Tracking。 vii
  • 8. 目錄 誌謝 .............................................................................................................................. iv 摘要 ............................................................................................................................... v ABSTRACT ................................................................................................................. vi 目錄 ............................................................................................................................ viii 表目錄 .......................................................................................................................... xi 圖目錄 ......................................................................................................................... xii 1. 緒論 ....................................................................................................................... 1 1.1. 研究動機 .................................................................................................. 1 1.2. 研究目的 .................................................................................................. 2 1.3. 論文架構 .................................................................................................. 3 2. 文獻探討 ............................................................................................................... 4 2.1. 數位學習 .................................................................................................. 4 2.1.1. 數位學習緣起.................................................................................... 4 2.1.2. 數位教材類別.................................................................................... 5 2.1.3. 數位學習趨勢.................................................................................... 7 2.1.4. 小結.................................................................................................... 8 2.2. 擴增實境 .................................................................................................. 8 2.2.1. 擴增實境緣起.................................................................................... 9 2.2.2. 擴增實境基本原理 ......................................................................... 10 2.2.3. 擴增實境類別.................................................................................. 12 2.2.4. 擴增實境技術在數位學習之應用 ................................................. 14 2.2.5. 小結.................................................................................................. 16 2.3. 無標記擴增實境追蹤技術分析 ............................................................ 16 viii
  • 9. 2.3.1. 現有開發平台.................................................................................. 16 2.3.2. 影響追蹤技術因素分析 ................................................................. 18 2.4. 物件偵測與追蹤相關技術 .................................................................... 19 2.4.1. 移動物偵測...................................................................................... 19 2.4.2. 物件追蹤.......................................................................................... 23 2.4.3. 物件特徵擷取.................................................................................. 25 2.4.4. 座標轉換.......................................................................................... 37 3. 無標記擴增實境視覺追蹤系統 ......................................................................... 39 3.1. 影響無標記擴增實境視覺追蹤辨識因素分析 .................................... 39 3.1.1. 物件複雜度...................................................................................... 39 3.1.2. 物件移動速度.................................................................................. 40 3.1.3. 小結.................................................................................................. 41 3.2. 無標記擴增實境視覺追蹤技術 ............................................................ 41 3.2.1. 框選追蹤物件.................................................................................. 42 3.2.2. 色彩空間轉換.................................................................................. 42 3.2.3. 物件偵測追蹤.................................................................................. 42 3.2.4. 定位顯像.......................................................................................... 47 3.3. 運用無標記擴增實境技術建立數位學習環境 .................................... 50 3.3.1. 先期準備階段.................................................................................. 50 3.3.2. 系統開發階段.................................................................................. 51 3.3.3. 完成測試階段.................................................................................. 51 4. 全文下載 ............................................................................................................. 52 4.1. 無標記擴增實境實驗平台建置與追蹤技術驗證 ................................ 52 4.2. 運用擴增實境技術建 立數位學習環境 ................................................ 53 ix
  • 10. 參考文獻 ..................................................................................................................... 55 論文發表 ..................................................................................................................... 59 自傳 ............................................................................................................................. 60 x
  • 12. 圖目錄 圖 2.1:數位教材種類 ................................................................................................ 5 圖 2.2:虛擬連續性的理論[6] ................................................................................... 9 圖 2.3:擴增實境的基礎架構[9] ............................................................................. 10 圖 2.4:擴增實境運作步驟 ...................................................................................... 11 圖 2.5:標記圖樣[10] ............................................................................................... 12 圖 2.6:標記擴增實境示意圖 .................................................................................. 13 圖 2.7:標記擴增實境運作流程圖 .......................................................................... 13 圖 2.8:無標記擴增實境示意圖 .............................................................................. 14 圖 2.9:無標記擴增實境運作流程圖 ...................................................................... 14 圖 2.10:電磁學教學系統[14] ................................................................................. 15 圖 2.11:擴增實境坦克大戰遊戲[15] ..................................................................... 15 圖 2.12:美軍維修LAV-25A1 裝甲運兵車[16]...................................................... 16 圖 2.13:ARToolKit NFT無標記示意圖[12] .......................................................... 17 圖 2.14:光流法示意圖[25] ..................................................................................... 21 圖 2.15:時序差異法示意圖[28] ............................................................................. 21 圖 2.16:背景相減法結果圖[29] ............................................................................. 23 圖 2.17:高斯差分濾波示意圖[34] ......................................................................... 28 圖 2.18:極值搜尋示意圖[34] ................................................................................. 28 圖 2.19:特徵點描述示意圖[34] ............................................................................. 31 圖 2.20:GLOH特徵描述子示意圖[36] .................................................................. 32 圖 2.21:積分影像運算示意圖[39] ......................................................................... 33 圖 2.22:積分影像計算矩形框示意圖[38] ............................................................. 33 xii
  • 13. 圖 2.23:SIFT與SURF金字塔尺度空間建立示意圖: ......................................... 34 圖 2.24:主方向示意圖[38] ..................................................................................... 36 圖 2.25:特徵點描述示意圖[38] ............................................................................. 37 圖 3.1:物件複雜度對物件辨識追蹤之影響: ...................................................... 40 圖 3.2:物件移動速度對追蹤物件之影響: .......................................................... 40 圖 3.3:無標記擴增實境系統流程圖 ...................................................................... 41 圖 3.4:物件偵測追蹤流程圖 .................................................................................. 43 圖 3.5:SIFT與SURF特徵點表示圖:.................................................................... 44 圖 3.6:金字塔L-K光流法連續追蹤表示圖 ........................................................... 46 圖 3.7:單應性計算示意圖 ...................................................................................... 47 圖 3.8:定位顯像流程圖 .......................................................................................... 47 圖 3.9:物件近距離擴增實境畫面 .......................................................................... 49 圖 3.10:物件中距離擴增實境畫面 ........................................................................ 49 圖 3.11:物件遠距離擴增實境畫面 ........................................................................ 50 xiii
  • 14. 1. 緒論 1.1. 研究動機 21 世紀以來由於網際網路的蓬勃發展,使得地理上的距離不再是距離,人 們籍由電腦科技的進步使得在資訊搜集上更加容易,讓世界各地的人們在知識 的獲得上,不再有時間和空間的落差。在這個知識經濟的時代,如何有效且快 速的學習,可以說是生存在 21 世紀的人們,一個很重要的課題,而「數位學習」 是提供學習者一個没有環境、時間、空間及地域限制,且更有效率及學習自由 度高的途徑及方法,因此「數位學習」成了人們快速學習的方法之一。 由於數位學習與傳統課堂教學方式不同,現今數位學習大多由學習者經由 網際網路來進行學習,相較傳統課堂教學少了一份真實感,故在數位學習的教 材製作上,就變的相當重要。2008 年吳聲毅在「數位學習觀念與實作」書中[1], 依教材呈現的方式不同,將教材分成網頁式、演講式、模擬式、視訊式及電子 書等 5 類教材,其中演講式、模擬式及視訊式等 3 類教材可使用於正式授課, 而網頁式及電子書等 2 類教材可使用於補充教學。 在2010年美國新媒體聯盟(The NEW MEDIA CONSORTIUM)和主動學習教 育機構(EDUCASE Learning Initiative)「The Horizon Report 2010 Edition」報告中 [2],提出未來五年的數位學習科技技術發展6項預測,其中「行動運算(Mobile Computing)」可以提供人們隨心所欲在任何地方上網,而「簡單擴增實境(Simple Augmented Reality)」讓學習者有身歷其境的感受, 逹到快速且有效的學習。故 近年來已有許多研究提出相關應用,如運用在英語學習、電磁學教學、化學元 素的化學分子結構、太陽系的運轉、汽車維修教學及球類運動教學等等。 而其中擴增實境系統的底層技術是以影像處理之物件追蹤為核心,若以視 覺追蹤技術來分類的話,可分為「標記 (Marker)」或「無標記 (Markerless)」2 1
  • 15. 大系統。近年來擴增實境在「數位學習」的應用絶大多數都為「標記」系統, 原因不外乎大多數開發平台都為使用「美國華盛頓大學人機介面實驗室」所開 發出來的ARToolkit,而ARToolkit本身所使用就是「標記」系統,故相對所開發 出來的系統,均為「標記」系統。然就運用於「數位學習」上來說,要開發出 操作人性化、內容豐富,且多樣化的教材系統,顯然「標記」較為不適用,因 為會受限於使用上不方便之問題,例如:操作介面較不美觀,進而影響學習系 統的實用性。 綜上所述,要開發出操作介面可以更加便利、親切及人性化,且實用性高的 擴增實境數位學習系統,本文建議應採用「無標記」系統,因為其受限於「標 記」之限制,在追蹤、辨識及定位的物件,可由系統開發者或學習者自行設定, 使用上更為方便,實用性也隨之提昇。 無標記擴增實境之物件追蹤辨識正確與否,易受周邊環境光源、辨識圖樣 角度、影像解析度以及辨識圖樣材質等 4 點因素影響[3]。而且物件本身的複雜 度及移動速度更會影響系統的實用性,高複雜度物件表示「多特徵點」、「與 環境顏色成強烈對比」或「明顯紋理與輪廓」,這類物件容易從影像中辨識與 追蹤。反之,低複雜度物件則表示「較少特徵點」、「與環境顏色相似」或「無 明顯紋理與輪廓」,這類物件不易從影像中辨識與追蹤。另外在即時追蹤辨識 中,系統運算速度必須夠快,否則移動物件速度太快,可能造成在系統運算完 畢後,而物件已不在該位置,形成誤判。故在「無標記擴增實境數位學習系統」 中物件的複雜度分析及移動速度之影響與評估是相當重要 事先瞭解物件特性 , , 學習者在操作系統時,才可以正確使用辨識的物件,以增加系統的實用性。 1.2. 研究目的 現行擴增實境數位學習系統大多採用標記系統,然而標記系統使用上較不 方便,會降低系統實用性,故本論文提出如何運用擴增實境的技術,來製作數 2
  • 16. 位教材及建立數位學習環境,並分析現有運用在「無標記擴增實境數位學習系 統」追蹤技術之限制因素,進而提出能追蹤各式真實物件之技術,並且降低物 件複雜度對物件追蹤造成之影響。 本文所提之方法能提昇無標記擴增實境的實用性與普及性,製作更活潑更 生動之數位教材及建置更有效率之實現數位學習環境。例如,運用於國軍軍事 裝備維修上,可有效降低人員訓練時間及成本;另可迅速指引維修人員進行裝 備檢修,有效提昇裝備妥善率;運用於軍中的戰術教學,更可提昇學習者的學 習興趣。 1.3. 論文架構 本論文分為五章,第一章是緒論,介紹研究動機、研究目的和論文架構; 第二章是相關文獻探討,介紹數位學習、擴增實境之既有技術與相關研究;第 三章是研究方法;第四章實驗結果與分析;第五章是結論。 3
  • 17. 2. 文獻探討 本章首先對數位學習介紹,接著介紹何謂擴增實境,分析現行無標記擴增 實境追蹤技術,最後說明物件偵測與追蹤相關技術。 2.1.數位學習 本節首先介紹數位學習緣起,接著說明數位教材的分類及其在數位學習的 重要性,最後介紹未來影響數位學習發展及教材製作之技術。 2.1.1. 數位學習緣起 根據鄒景平在「數位學習最佳指引-數位學習概論」書中所提[4],「數位學 習(e-Learning)」這個名詞,最早係由一位美國數位學習大師 Jay Cross 於 1999 年率先提出,然美國訓 練與發展協會ASTD (American Society for Training an d Development)定義 e-Learning 為「學習者應用數位媒介學習的過程,數位媒 介包括網際網路、企業網路、電腦、衛星廣播、錄音帶、錄影帶、互動式電視 及光碟等。應用的範圍包括網路化學習、電腦化學習、虛擬教室及數位合作」, 由此可知 e-Learning 包含的應用範圍相當廣泛,如利用網際網路、衛星廣播、 互動電視、以及光碟片教材等來進行課程學習,都屬於數位學習的範疇。另外 美國知名的網路科技公司思科(Cisco)對 e-Learning 的定義為「數位學習是透過 網際網路,即時傳遞各種資訊及知識給所需要的人,包含有正式的訓練及課程, 也包括資訊的傳遞及網路上的互動,知識管理及績效管理亦在其範圍之中」 ,由 此可知 Cisco 對 e-Learning 定義,加入了在職訓練的觀念,不在侷限於我們一 般所認知的知識學科上的學習。 4
  • 18. 2.1.2. 數位教材類別 由於數位學習與傳統課堂教學的環境並不相同,傳統課堂教學是以授課老 師口頭講授為主,教材為輔,學習者則以被動學習,而數位學習則以教材為主, 由學習者主動學習,依自已的能力來設定學習進度,老師這時改變為輔助者的 角色,故數位學習的教材製作設計,就相對顯的相當重要,2008 年吳聲毅在「數 位學習觀念與實作」書中,依教材呈現的方式不同,將數位學習教材區分為下 列 5 類[1],如圖 2.1 所示: 圖 2.1:數位教材種類 2.1.2.1. 網頁式教材 這類教材是我們一般最為常見的數位教材,其將傳統課堂上的教材以網頁 方式呈現,並加入多媒體(如動畫、圖片、Flash 等) ,製作方式可透過網頁製 作軟體製作,或將文書、簡報軟體製作的教材直接另行輸出成網頁格式,此種 數位教材製作最為簡易,但學生只是瀏覽教材,無法聽到教師講解,在學習效 果上並無太大的幫助,適合用於補充教學。 5
  • 19. 2.1.2.2. 演講式教材 這類教材主要是以投影片的呈現為主,在播放投影片時,可以同步錄製解 說視訊或音訊,並設立切換點,因此在畫面上學生可以自行選擇要閱讀的投影 片,而視訊或音訊解說將同步播放,此種教材一般較易受學習者接受,適合用 於正式授課,但教學素材大多只限於投影片而已,無法隨時切換到其他素材, 如多媒體動畫、圖片等。 2.1.2.3. 模擬式教材 這類教材主要是錄製電腦螢幕的畫面為主,輔以相關書寫或繪畫工具,將 螢幕當成一個黑板進行教學,製作也非常簡單。而教材多以「邊下載邊播放」 的視訊串流(streaming)方式進行,一般解析度都必須在 800×600 以上,故網 路頻寬也是成為考慮因素之一。目前也有以 Flash 格式輸出的工具軟體,其在 錄製後還可以另行編輯內容,包含註解、說明,甚至有測驗的輔助功能,教師 可以讓學生學習後立即進行評量,適合用於正式授課,另外也有些專家認為所 謂模擬式教材應該是模擬實際情境,如開飛機等,然這種教材需要專業的人士 才可以製作。 2.1.2.4. 視訊式教材 這類教材主要是透過攝影機(如 DV、Web Cam 等)錄製教材,且經過視訊 編輯軟體,將相關素材加以整合、加入旁白字幕等,最後輸出成可以放在網路 上的檔案,並籍由串流方式讓學生觀看的教材,此種教材較適合用於需要展演 的課程,適合用於正式授課及補充教學。 2.1.2.5. 電子書教材 這類教材主將各式資料或圖書數位化,並可透過電腦、PDA、手機或電子書 6
  • 20. 閱讀機來供人閱讀,一般多用於輔助教學之用,製作方式是將所有的教學素材 加以編輯後,包裝儲存成一個檔案,好處是可以讓學生可以下載教材並隨時觀 看,學生並可利用查詢功能快速搜尋, 逹到快速學習的目的。 2.1.3. 數位學習趨勢 依據由美國新媒體聯盟和主動學習教育機構所提出的「The Horizon Report 2010 Edition」報告中[2],提出未來五年的數位學習科技技術發展幾項預測,在 1 年內成熟的技術「行動運算(Mobile Computing)」及「開於式內容(Open ,在 2~3 年內成熟的技術「電子書(Electronic Book)」及「簡單擴增實 Content)」 境(Simple Augmented Reality)」,在 5 年內成熟的技術「互動手勢操作技術 (Gesture-Based Computing)」及「資料視覺化與分析(Visual Data Analysis)」,本 文主要為提出對現有運用在「無標記擴增實境數位學習系統」追蹤技術的限制 因素來進行分析,故僅對上述「行動學習」及「簡單擴增實境」做說明,說明 如下 : 2.1.3.1. 行動運算 在 The Horizon Report 2009 的預測中[5],預測「行動學習」將於未來的 1~2 年內成熟,而在 2010 年的報告中預測「行動運算」的技術也已逐漸成型,原因 是近年來由於無線網路的蓬勃發展及結合上智慧型手機(Smart Phone)、筆記型 電腦(Notebook Computer)的普及化,使得人們可以隨心所欲在任何地方上網, 這也表示學生可以藉由智慧型手機或筆記型電腦,透過無線網路來學習。在美 國許多研究指出,由學生使用 iPhone、iPod 或 BlackBerry,經由自行開發平台 或現有互動平台,如 Facebook、Twitter,來進行討論、提問和回答問題,研究 指出成效良好;此外在美國富蘭克林馬紹爾學院,長達一年的行動學習試驗性 計劃中,使用 iPod Touches 來探討行動運算,可應用於教學、學習和研究,這 7
  • 21. 些在都證明了行動運算及行動學習,將成為未來數位學習的主流。 2.1.3.2. 簡單擴增實境 擴增實境的技術雖然已經發展 10 多年了,但一直受限於需要攝影機、桌上 型電腦及顯示螢幕,才能觀看得到現實世界與虛擬物件的結合的影像,但是現 在只需要一部有攝影機的智慧型手機或筆記型電腦,即可達成,因此對於使用 者來說,擴增實境是很容易融入操作的技術;此外目前擴增實境的發展大多在 於娛樂的商業行為上,然目前這個趨勢,將促使擴增實境的技術可以一直被改 良操作更加簡單並讓更多的使用者接受並使用,故文中預測在未來的 2~3 年內 「擴增實境」的技術成熟後,未來運用到數位學習上是指日可待的。 2.1.4. 小結 綜合本節所述,就美國新媒體聯盟和主動學習教育機構所提出的「The Horizon Report 2010 Edition」報告中,指出在未來幾年「行動運算」及「簡單 擴增實境」的技術便會成熟;另外就教材分類而言,本文所研究的內容就本質 而言應屬模擬式教材,適合用於正式授課,而若未來可結合「行動運算」那便 可開發成網頁式教材,適合用於補充教學,所以本文所提「無標記擴增實境數 位學習系統」可以同時運用在正式授課或補充教學的教材。 2.2.擴增實境 何謂「擴增實境」?對許多人而言是一個新的名詞,但對另一個名詞「虛 擬實境」一定不會感到陌生,故先說明擴增實境與虛擬實境之差別,根據 1994 年 Milgram 等人[6],將真實到虛擬之間的變化程度,提出了「真實-虛擬連續性 (reality–virtuality Continuum)」的理論,為擴增實境與虛擬實境做了有所區別。 如圖 2.2 所示,兩端點分別代表著真實的環境和虛擬的世界,統稱為混合實境 (Mixed Reality,MR),在不含兩端點的線段的「連續範圍」稱之為「真實-虛擬 8
  • 22. 連續性(Reality–Virtuality Continuum,RV)」 。若是比較靠近「真實」端者,即「真 實」的成份高於「虛擬」者,則稱之「擴增實境」(Augmented Reality,AR); 相對而言,如果是「虛擬」之比例較高時,則稱之為「擴增虛境」(Augmented Virtuality,AV)。 簡單的說, 「擴增實境」是真實場景與虛擬物件結合,「擴增 虛境」虛擬場景與真實物件結合。 圖 2.2:虛擬連續性的理論[6] 2.2.1. 擴增實境緣起 擴增實境相關技術早在 50 年前就有人提出,從 1960 年電腦繪圖先鋒 Ivan Sutherland 和他的學生,開發出第一套系統。1970 年代,美國空軍阿姆斯壯實 驗室、航太總署艾密斯研究中心及北卡羅來納大學教堂山分校等機構,有幾個 人從事擴增實境的研究。到 1990 年代初波音公司有幾個科學家才創造了「擴增 實境」這個名詞,他們當時正在開發一種實驗性擴增實境系統,協助工人裝配 管線設備[7]。到了 1997 年 Azuma 對擴增實境提出了定義[8]:「擴增實境是由 虛擬實境(或俗稱虛擬現實,VE)所變化而來的,虛擬實境的技術是該使用者 完全沉浸於一個合成環境中 使用者無法看到在他周圍真實的世界 相比之下, , 。 擴增實境在真實的世界與虛擬物體複合疊加後 則允許使用者看到真實的世界 , 。 9
  • 23. 因此,擴增實境是增強的現實環境,而不是完全取代它」,Azuma 並提出擴增 實境至少具有三大特性:(1)結合虛擬與真實世界(Combines real and virtual),(2) 可供即時性互動 (Interactive in real time), (3)資訊必 需呈現在三 度空間內 (Registered in 3-D)。 2.2.2. 擴增實境基本原理 本節首先介紹在 2005 年 Oliver Bimber 和 Ramesh Raskar 所提出擴增實境 基礎架構,由當中可以瞭解擴增實境的底層技術,接著說明如何實現擴增實境 運作步驟。 2.2.2.1. 擴增實境基礎架構 Oliver Bimber 和 Ramesh Raskar 在 2005 年「Spatial Augmented Reality Merging Real and Virtual Worlds」的書中提出擴增實境的基礎架構[9],如圖 2.3 所示。 圖 2.3:擴增實境的基礎架構[9] 由於擴增實境是真實環境與 3D 虛擬物件結合,故最底層技術為「影像處 理」領域的「追蹤及定位(Tracking and Registration)」負責辨識物件及追蹤物件 位置, 「電腦圖學」領域的「3D 物件顯示技術(Display Techniques)」和「渲染 10
  • 24. (Rendering)」負責將 3D 虛擬物件繪製整合圖形於物件相對位置上。第二層由 「人機互動控制(Interaction devices and techniques)」 、「展示(Presentation)」 及「創 作(Authoring)」所組成,負責與使用者互動,如人機操作介面及劇本創作,而 現今虛擬實境的研究大多已經邁向此階段。第三層為「應用層(Application)」, 將結果呈現在使用者面前,第四層為「使用者(User)」。 2.2.2.2. 擴增實境運作步驟 擴增實境技術基本運作可分為四大步驟,如圖 2.4。首先從攝影機輸入影 像 (載入);接著擷取特定物件或標記,並分析圖標的角度及位置(追蹤辨識); 再來是載入及疊加 3D 物件(定位疊加);最後將 3D 影像顯示於螢幕上(顯示)。 圖 2.4:擴增實境運作步驟 11
  • 25. 2.2.3. 擴增實境類別 擴增實境是將真實場景與虛擬物件結合,其基礎技術為影像追蹤及辨識, 可區分為「標記」及「無標記」等二類[9],定義分述如下: 2.2.3.1. 標記系統 標記系統代表擴增實境系統 必須經由特定標記 圖樣供系統辨識及定位, , 、 而其標記的圖樣如圖 2.5 所示[10]。而在標記系統大多數使用由美國華盛頓大 學人機介面實驗室所開發出來的 ARToolkit 免費軟體來進行開發 然而為 了3D , 定位準確及快速,ARToolkit 標記必須符合「必須是正方形」「邊框必需與背 、 景是對比顏色」及「標記圖案 不可旋轉對稱」等 3 個原則,才可以準確且快速 的定位[11]。 圖 2.5:標記圖樣[10] 標記技術需透過系統特別的標記,來當作觸發的媒介,當攝影機畫面比對 出符合標記的圖樣時,便即時在圖樣上置放預先設定好的虛擬物件,並同時在 螢幕上顯示出擴增實境的畫面,示意圖如圖 2.6,本文將完整流程圖整理如圖 2.7 所示。然而標記受限於上述 3 個原則,在應用上較不美觀,但也因為符合上 述原則,使用標記時,可方便追蹤、辨識及定位。 12
  • 26. 圖 2.6:標記擴增實境示意圖 圖 2.7:標記擴增實境運作流程圖 2.2.3.2. 無標記系統 無標記系統代表擴增實境系統不須特定標記、圖樣來辨識及定位,可依使 用者喜好自行設計圖樣或使用真實物件來進行辨識及定位,示意圖如圖 2.8。 故無標記技術為使用没有固定標記的圖像來當作觸發的媒介,在使用前需先擷 取辨識物件圖像或其特徵點(如:紋理、顏色、輪廓等等),當攝影機畫面比對 出符合物件圖像或特徵點時,便即時在圖樣上置放預先設定好的虛擬物件,並 同時在螢幕上顯示擴增實境的畫面,本文將完整流程圖整理如圖 2.9 所示。然 因無標記使用為非物件圖像或特徵點,故在應用上較方便及美觀,但必須配合 正確的追蹤辨識技術,方能順利呈現 3D 物件。 13
  • 27. 圖 2.8:無標記擴增實境示意圖 圖 2.9:無標記擴增實境運作流程圖 2.2.4. 擴增實境技術在數位學習之應用 近年來已有許多研究提出擴增實境在數位學習的運用,在考量篇幅關係, 故列舉「電磁學教學」「電腦兵棋推演」及「軍事裝備維修」等 3 例,分別介 、 紹如下: 2.2.4.1. 電磁學教學 2009 年德國 Andre´ Buchau 等人[14]提出運用擴增實境可視化特性,將人 眼無法看見的電磁場模擬出來,這樣的技術運用在電磁學教學上,可以使得學 生輕鬆瞭解其特性及物理現象,如圖 2.10 所示。 14
  • 28. 圖 2.10:電磁學教學系統[14] 2.2.4.2. 電腦兵棋推演 在 2005 年紐西蘭坎特伯雷大學 Trond Nilsen 及 Julian Looser 等人[15],設 計出可 2 人以上同時操作使用的擴增實境坦克大戰遊戲,如圖 2.11 所示,這項 技術若引進至軍方,運用在爾後軍中的戰術教學部份,相信更可提昇學習者的 學習興趣。 圖 2.11:擴增實境坦克大戰遊戲[15] 2.2.4.3. 軍事裝備維修 在 2009 年美國哥倫比亞大學的 Steve Henderson 和 Steve Feiner 與美國海軍 陸戰隊配合[16],將擴增實境的技術運用在維修 LAV-25A1 裝甲運兵車,如圖 2.12 所示,在繁複的維修作業中,透過擴增實境技術的幫助,使用者可以藉由 頭戴顯示器(HMD)快速獲知維修機器時所需的資訊,逹到快速維修節省時間、 15
  • 29. 人力的目的。擴增實境的技術運用在軍事裝備維修上,除可以有效降低人員訓 練時間及成本外,另外亦可迅速指引維修人員進行裝備檢修。 圖 2.12:美軍維修 LAV-25A1 裝甲運兵車[16] 2.2.5. 小結 綜觀近年的許多擴增實境在「數位學習」的應用發現, 絶大多數的應用系 統,開發平台都為使用「美國華盛頓大學人機介面實驗室」所開發出來的 ARToolkit 2.72.1 版,而 ARToolkit 2.72.1 版本之前,所使用就為「標記」系統, 故相對所開發出來的系統,均為「標記」系統,然就運用在「數位學習」上來 說,要開發出操作人性化、內容豐富,且多樣化的教材系統,建議使用「無標 記」。因為其不受「標記」的限制,操作介面可以更加便利、親切及人性化。 2.3.無標記擴增實境追蹤技術分析 本節將首先介紹現有無標記擴增實境開發平台,接著分析影響追蹤技術因 素。 2.3.1. 現有開發平台 擴增實境現有絶大多數的開發平台均有支援「標記」,而支援「無標記」 的開發平台不多,以下僅介紹支援無標記的開發平台。 16
  • 30. 2.3.1.1. ARToolkit Professional Edition ARToolkit 是由 C 語言撰寫的函式庫,透過 C 或 C++語言可以讓使用者輕 鬆地使用「標記」開發出擴增實境的應用。起初是由「美國華盛頓大學人機介 面實驗室」所開發出來的免費版本,目前最新的免費版本是 2.72.1,而在之後 便推出 ARToolKit Professional Edition 商業化版本,其中結合了許多新的影像 處理技術,而在「無標記」的部份 ARToolkit 也推出了 ARToolKit NFT[12],對 物件的自然特徵的紋理表面進行追踪,讓使用者可以輕鬆地使用開發出「無標 記擴增實境系統」,但在無標記辨識時物件影像周圍必須設置傳統標記如圖 2.13 所示,以利追蹤辨識。 圖 2.13:ARToolKit NFT 無標記示意圖[12] 2.3.1.2. D’ Fusion D’Fusion是由TOTAL IMMERSION公司所開發出來擴增實境應用軟體[17], 所使用的語言為Script ,其也支援「無標記」,但在物件追蹤會受限於物件本身 的複雜度。物件複雜度越高,追蹤、辨識效果越好;反之,物件複雜度越低, 追蹤、辨識效果越差。其目前「無標記」相關應用以平面圖卡為主,並未有以 真實物件供追蹤辨識及在真實物件上呈現3D物件之運用案例。 17
  • 31. 2.3.1.3. Unifeye Design Unifeye Design 是由 Metaio 公司的所開發出來擴增實境應用軟體[18],所 使用的語言為 C#,其也支援「無標記」,然他的限制在於目前所呈現出來均為 運用於故事書上製作為主,並未有以真實物件供追蹤辨識及在真實物件上呈現 3D 物件之運用案例。 2.3.1.4. 小結 綜觀上述無標記開發平台,其在追蹤辨識技術均有所侷限,ARToolkit 受 限於辨識時物件影像周圍必須設置傳統標記 D’Fusion 及 Unifeye Design 就目 , 前所知,均無法對真實物件追蹤辨識,故無法滿足本文所提須能追蹤各式真實 物件。 2.3.2. 影響追蹤技術因素分析 由於擴增實境的底層核心技術之一是影像處理領域的追蹤及辨識,然在進 行影像追蹤、辨識及定位時,會受「環境光源」、「辨識圖樣角度」、「影像 解析度」、「辨識圖樣材質」等 4 點因素限制[3],原因分述如下: 2.3.2.1. 環境光源 一般我們從攝影機獲得影像通常為 RGB 色彩模型,而周邊環境的光源明 亮會導致影像 RGB 值出現變化,當物件追蹤周邊光源有強烈變化時,將會因 RGB 值出現變化而致使辨識錯誤,另外光線照射所產生的陰影,也都會造成辨 識失敗。 2.3.2.2. 辨識圖樣角度 攝影機與辨識物件平面的夾角以 90 度為最佳,但會降低使用的靈活度。當 18
  • 32. 夾角超過 180 度時,會導致追蹤辨識失敗。換而言之,當辨識的夾角越大使用 靈活度越高,但相對的辨識效果愈差;辨識的夾角越小使用靈活度越低,但相 對的辨識效果愈高,故通常攝影機與辨識物件平面的夾角為 20 度~160 度,以 保持操作靈活度。 2.3.2.3. 影像解析度 影像的解析度會影響辨識及追蹤效果,原因在於解析度越高則辨識物件細 節部份越清楚,但會增加系統運算時間。反之,解析度越低,雖然會減少系統 運算時間,但可能會因畫素不足導致辨識物件細節部份模糊不清,故必須在二 者之間取得平衡。 2.3.2.4. 辨識物件材質 辨識物件平面的材質會影響到辨識追蹤,原因在於當光線照射於辨識物件 平面時 由於物件材質本身的關係造成反光 使得物件平面上的部份特徵消失, , , 致使辨識錯誤,因必須此審慎選擇物件材質。 2.4.物件偵測與追蹤相關技術 就 2.2.2.2 節所述擴增實境運作步驟原理的四大步驟「載入」 , 、「追蹤辨識」 、 「定位疊加」及「顯示」,其中追蹤辨識部份,主要運用「移動物偵測」的相關 方法將物件從影像中分 離出來,進一步再運用「物件追蹤」相關方法進行持續 追蹤,最後用「座標轉換」方法取得物件所在位置之座標,並將虛擬物件疊加 在追蹤物件的座標位置上。 2.4.1. 移動物偵測 移動物偵測主要在擷取移動物件,以利後續移動物件追蹤,常見之移動物 19
  • 33. 件偵測追蹤方法可分為光流法(Optical Flow Method)、時序差異法(Temporal Differencing)與背景相減法(Background Subtraction)等三類[19],分述如下。 2.4.1.1. 光流法 光流法係運用連續影像中,圖像像素的亮度變化,來找出影像中的光流場 (Optical Flow Field),再藉由光流場來估計移動物體的運動向量後進行特徵匹 配。簡單來說,光流法就是藉由偵測光線強弱的變化來進行偵測移動物件,示 意圖如圖 2.14 所示。 在眾多光流法中,目前常用的方法為「H-S光流法」[20],以及「L-K光流 法」[22]。前者為Horn及Schunck於1981年提出,此方法較不易受到雜訊之影響, 但因使用疊代法求解,故在計算速度上會顯的較慢[21]。「L-K光流法」為Lucas 及Kanade 於1981年所提出,其基本原理基於下列三項假設[23]: 1.亮度不變性:以灰階影像而言,其意義為一物體的亮度不會在相鄰二幅影像中 出現巨大的變化。 2.時間連續性:假設一物體在即時相鄰二幅影像中移動距離是很微小,然由於實 際上在即時環境下1秒為15至30張圖像,故物體在相鄰二幅影像 中所移動距離並不會移動過大。 3.空間一致性:畫面中相鄰的點屬同一物體平面,則會有相似的移動,在影像內 不會距離太遠。 「L-K光流法」優點在於僅對部分區域的光流場進行分析計算,故在計算上 相對更顯快速簡單,缺點則為僅能計算較短的移動向量,對於長距離的移動則 無法有效的偵測。為解決上述問題,Bouguet於1999年提出「金字塔L-K光流法」 [24],主要將「L-K光流法」結合金字塔結構特性,追蹤時先從低解析度的影像 開始追蹤,再追蹤到高解析度影像。藉由計算低解析度的移動矩離來對應回至 20
  • 34. 高解析度的矩離,便可解決因移動離過大導致無法正確追蹤物件之缺點。 圖 2.14:光流法示意圖[25] 2.4.1.2. 時序差異法 時序差異法的原理,是利用連續二幅或三幅的影像做一對一的像素相減, 若是兩者差異不為零,則為前景物件[19]。在 1998 年 Lipton 等人成功的運用此 方法檢測出前景物件[26];2000 年卡內基美隆大學機器人研究所在其研究報告 中,運用連續三張的影像來取得移動特徵,並利用設定一個門檻值來決定那些 是前景物件[27]。上述二者方法在計算效能上都有非常好的效率,但缺點就是 無法取得完整的前景物件[28],如圖 2.15 所示,其中物件移動時,因影像 K-1 及影像 K 部份區域有重疊,導致在比較時造成錯判,故無法取得完整的前景物 件。 圖 2.15:時序差異法示意圖[28] 21
  • 35. 2.4.1.3. 背景相減法 背景相減法的原理,係先行運用幾秒的連續影像來建立初步背景,背景建 立完成後,再以目前影像與背景影像比較,符合背景條件的則判定為背景,反 之則判定前景物件。但因判定時完全參照背景影像,故在動態場景光線或背景 改變時易形成誤判[19]。此方法之優點在於運算快速,且可擷取到完整的前景 物件。 在 2005 年 Jacques 等人提出背景相減法,背景模型 B(x,y)建立公式如公式 (2.1)[29]。 m(i, j) zV (i, j) min z B(i, j) = � n(i, j) � = � zV (i, j) max z � d(i, j) max|V z (i, j) − V z−1 (i, j)| (2.1) z where |V z (i, j) − λ(i, j)| < 2σ(i, j) 其中 V 為連續 n 張影像,Vz(i,j)為第 n 張影像中(i,j)的像素值,m(i,j)和 n(i,j) 分別為 V 中相對位置(i,j)的最大值及最小值,而 d(i,j)則為二張相鄰影像相對位 置(i,j)的最大差異值,λ(i,j)和σ(i,j)分別為連續 n 張影像中相對位置(i,j)的中位 數(Median)和標準差(Standard Deviation) 當新影像 It(i,j)進入時 經由與公式(2.2) , , 比對,擷取出前景物件。 0 , I t (i, j) > (m(i, j) − kμ) and I t (i, j) < (m(i, j) + kμ) F(i, j) = � 1 , otherwise (2.2) 當中μ為最大差異值 d(i,j)的中位數,k 則為一常數,而 F(i,j)為前景物件,擷取 結果如圖 2.16 所示。 22
  • 36. 圖 2.16:背景相減法結果圖[29] 2.4.1.4. 小結 分析上述 3 種方法,其中光流法及時序差異法都不需先行建立背景,然時 序差異法問題在於無法擷取完整的前景物件,這樣對於後續的移動物件追蹤與 辨識將無法提供完整的資訊 背景相減法則需先行運用一段時間影像建立背景 。 , 所以前置準備作業較長。 光流法雖易受光源影響且計算方式較複雜,但優點在於不需先行得知目標 物的特徵,僅藉由影像亮度的變化, 即可求得物體位移距離。而「金字塔 L-K 光流法」可以僅對部分區域光流場進行分析計算,計算上相對更顯快速簡單, 再搭配其他特徵點尋找的方法(如 SIFT SURF 等等) 即可達成物件追蹤辨識, : 、 , 可應用在「無標記擴增實境數位學習系統」上開發出追蹤各式物件技術。 2.4.2. 物件追蹤 物件追蹤(Object Tracking)是藉由比對連續影像間物件的相似程度,此範疇 涵蓋物件特徵擷取、目標物搜尋及物件辨識等,而現有物件追蹤的方法可分為 「區域式追蹤 (Region-Based Tracking)」「主動式輪廓追蹤(Active Contour-Based 、 Tracking)」 「特徵追蹤(Feature-Based Tracking)」及「模型追蹤(Model-Based 、 Tracking)」等四類[19][30][32],分述如下: 23
  • 37. 2.4.2.1. 區域式追蹤 此類方法的原理係將影像變動的區域視為移動物件,藉著偵測這些變動區 域的位置,來達到追蹤的目的。常用的方法是利用目前的影像與背景相減或運 用連續二張影像相減,所偵測出變化的區域,然後再進一步設立規則做篩選, 或劃分。 2.4.2.2. 主動式輪廓追蹤 此方法的原理係為運用物件的輪廓線(例如影像邊緣、形狀等)來描述移 動的物件,再利用每張影像上輪廓的資訊更新來追蹤物件。這種方法相對於區 域式追蹤對描述物件較為簡單且更有效率,也因輪廓線是封閉曲線,即使物體 交錯,也不會受到影響,但追蹤效果和初步輪廓的偵測或選取密切相關,故較 難用於全自動的偵測追蹤系統。 2.4.2.3. 特徵追蹤 這種方法的原理係運用物件本身的特徵來進行追蹤,但首先要對追蹤物件 本身擷取其特徵。然而根據不同的特徵,可分為「整體性特徵(global feature based),如重心、色彩、面積、紋理, 」 「局部性特徵(local feature based),如 」 線段、頂點, 「相依圖形特徵(dependence graph based)」 ,如特徵間的結構變化等 3 類。此方法可以用來即時追蹤多個物體(相依圖形特徵方法除外),並可利用運 動特徵、局部特徵或相依圖形特徵來解決物體交錯的問題。 1999 年 Comaniciu 以及 Meer 提出「平均值移動的追蹤技術(Mean Shift Object Tracking)」[33],其原理是統計移動區域內的亮度值,依不同位置給予不 同的亮度比重,組合成目標物的特徵模型,然後再從影像中找出和目標物模型 最相像的區域,藉此達到追蹤的目的。 2004 年 由 Lowe 所 提 出 「 尺 度 不 變 特 徵 轉 換 (Scale-Invariant Features 24
  • 38. Transform,SIFT)」[34],是目前最為熱門的局部性特徵,該特徵對旋轉、尺度 縮放、亮度變化可保持不變性,另對視角變化、仿射變換也可以保有一定穩定 性 2008 年 Bay 等人提出 。 「加速強健性特徵(Speeded-Up Robust Features SURF)」 , [38],該特徵係將影像轉換為積分影像並擷取特徵點,特徵點描述改良 SIFT 特 徵點描述之方法,其優點為運算速度較 SIFT 快。 2.4.2.4. 模型追蹤 此類方法之原理係先建立物體模型,再利用已知或假設的運動特徵建立運 動模型,用運動模型去預測下一張影像的物體模型變化,最後透過搜尋和比對 來完成。而模型追蹤的方法會提供較精細且準確的判斷,因此需要良好的物體 結構模型,所以基本上比較不受附近背景或其他物件干擾影響,也較能抵抗物 體間交錯問題,但相對地運算量也比較大。 2.4.2.5. 小結 要開發出適用於「無標記擴增實境數位學習系統」的追蹤技術,如何選取 有效的特徵將是非常重要的課題,從上述 4 種分類上來講,本文將採取「特徵 追蹤」中的「局部性特徵」 ,因其中 SIFT 及 SURF 等 2 項特徵點,對旋轉、尺 度縮放變化都可保持不變性,在開發「無標記擴增實境數位學習系統」追蹤技 術上,可提供有效的特徵點,以逹即時且穩定快速追蹤的目的。 2.4.3. 物件特徵擷取 本節介紹「局部性特徵」中 SIFT 及 SURF 等 2 項特徵比對原理。 2.4.3.1. SIFT特徵比對原理 SIFT 是 1999 年 Lowe 所提出,並在 2004 年整合總結 [34],是目前最為熱 門的局部性特徵。該特徵對旋轉、尺度縮放、亮度變化可保持不變性,另對視 25
  • 39. 角變化、仿射變換也可以保有一定穩定性。SIFT 主要分成尺度不變特徵偵測 (SIFT Detector)與特徵描述(Feature Descriptor)兩部份。其中,尺度不變特徵偵 測主要是在可能的尺度中搜尋穩定的興趣點(Interest point) 為了保持其穩定性 , , SIFT 會將不穩定的邊緣響應(Edge responses)去除。而特徵描述是在保持興趣點 獨特性,也就是運用統計興趣點周圍的梯 度變化程度,並轉換成 128 維的描述 向量,以強化與趣點的獨特性。 SIFT 主要分為「尺度空間極值檢測」「特徵點最佳化及定位」「計算特徵 、 、 點分向性」及「特徵點描述」等四個步驟,分述如下: 2.4.3.1.1. 尺度空間建立與極值偵測 為了達成尺度不變特徵的目的,最基本的概念就是從所有的尺度空間中搜 尋穩定的特徵,但實際上確是不可行,原因是尺度空間可以為無限大,故不可 能在所有的尺度 空間中搜尋,所以 SIFT 採用高斯差分濾波 (Difference of Gaussian filter, DoG filter)來建立尺度空間,在建立完成尺度空間後,進而搜尋 空間中的極值(Extrema),所這個步驟可以分為 2 個流程。 1. 高斯差分濾波 在使用 DoG 濾波之前,首先我們先定義一個 Gaussian kernel,已知給定一 個σ,並以高斯濾波函數(Gaussian filter)為公式(2.3)。 1 −(x2 +y2)⁄σ2 G(x, y, σ) = e 2πσ2 (2.3) 假設 I(x, y)為影像 I 在(x, y)處之像素値(Pixel value) 利用 , 公式(2.3)對 I(x, y) 作迴旋積分(Convolution),我們就可以得到一個尺 度為σ 且具有可變尺度 26
  • 40. (Scale variable)的高斯濾波結果 L ,如公式(2.4),其中 L 表示為尺度空間,(x, y) 表示為影像 I 上的點,而σ表示為尺度因子,其值越小代表該影像平滑效果越 小。反之,則代表平滑效果越大,大的尺度空間代表影像的概樣特徵,小的尺 度空間則代表影像中細微特徵,所以尺度因子的選擇是最為關鍵的。 L(x, y, σ) = G(x, y, σ) ∗ I(x, y) (2.4) 應用這個高斯濾波函數,DoG濾波就是給定兩個不同尺度的高斯濾波器對 影像I做濾波,再將濾波後的影像相減,公式如(2.5) 。 G(x, y, σ) = L(x, y, kσ) − L(x, y, σ) (2.5) 因此,DoG 濾波也相當於是把兩個Gaussian kernel 直接作相減,再將相減 之後的結果對I(x, y)作迴旋積分,公式如(2.6) 。 G(x, y, σ) = (G(x, y, kσ) − G(x, y, σ)) ∗ I(x, y) (2.6) 此流程主要應用影像金字塔(Image pyramid)的概念,完成一組(octave)尺度 空間,取樣頻率就可以減半,也就是將原始影像縮小一倍,然後繼續產生下一 組尺度空間,依此類推,這樣就可以產生多組尺度空間,其目的是在尺度縮減 的情況下再建立一個尺度空間,以讓接下來步驟中取得更多可能的特徵。以圖 2.17為例,其中最底層就是沒作高斯濾波的影像,接下來每做一次高斯濾波就將 σ取k倍再做一次高斯濾波產生下一層,所以k就是兩層相近尺度的比例。依此 類推,我們可以產生多層不同尺度的高斯濾波結果。接下來再將同一尺度高斯 濾波的結果相減,所得到的差分結果即為高斯差分的結果,而這個利用高斯差 27
  • 41. 分濾波器所產生尺度空間,就是偵測極值的尺度空間。 圖 2.17:高斯差分濾波示意圖[34] 2.尺度空間極值偵測 從上一個步驟中所獲得的尺度空間,接下來就可以這尺度空間中搜尋可能 的特徵點(也就是興趣點),其方法是搜尋空間中的極値(Extrema),以圖 2.18為 例,若尺度空間中存在一個X點,為周圍26個點中的最大值或最小值(上一層9個 鄰近點、同一層8個鄰近點與下一層9個鄰近點),則該點即判定為特徵點。最後 若確定興趣點為特徵點時,若當初該特徵點尺度縮減的取樣頻率為1/ f 倍,就將 該特徵點的座標皆乘以f倍,即可得到該特徵點在原始影像尺 度中的座標位置。 圖 2.18:極值搜尋示意圖[34] 28
  • 42. 2.4.3.1.2. 特徵點最佳化及定位 由於高斯差分濾波器對邊緣響應較為敏感,故在這些興趣點中可能包含許 多不穩定的邊緣響應,故為了去除這些不穩定的邊緣響應,步驟運用泰勒展開 式(Taylor expansion)及海森矩陣(Hessian)消除雜訊、邊緣響應的影像,以增強特 徵匹配時的穩定性。 1.泰勒展開式 點,T 為轉置矩陣,根據泰勒展開式可得偏移量 x ,並將其帶入公式(2.8),如 � 首先運用公式(2.7)刪除低對比點,其中 D 為 DOG 運算後結果,x 為興趣 果計算出來絶對值小於 0.03 則視為雜訊。 ∂DT 1 T ∂2 D D(x) = D + x+ x x ∂x 2 ∂x 2 (2.7) ∂2 D−1 ∂D x=− � ∂x 2 ∂x (2.8) 2. 海森矩陣 接著運用海森矩陣消除邊緣響應,首先在興趣點上運用公式(2.9)求得 H 矩 陣,之後代入公式(2.10)求得 Tr(H)及 Det(H),並代入公式(2.11),若條件成立(其 中γ部份為一門檻值,通常設為 10),則該點則視為受邊緣響應影響並將其刪 除,最後所剩餘的興趣點即為特徵點。 Dxx Dxy H=� � Dxy Dyy (2.9) Tr (H) = Dxx + Dyy = α + β (2.10) 29
  • 43. Det(H) = Dxx Dyy − (Dxy )2 = αβ Tr (H)2 (γ + 1)2 < Det(H) γ (2.11) 2.4.3.1.3. 計算特徵點方向性 首先以特徵點為中心並取其周邊 16*16 的畫素,接著運用公式(2.12)及 (2.13)計算出每一畫素梯度強度及方向,其中 m(x,y)代表座標位置(x,y)的梯度強 度,θ(x,y)代表座標位置(x,y)的梯度方向,而 L 則代表其相對應的尺度空間。 m(x, y) = �(L(x + 1, y) − (x − 1, y))2 + (L(x, y + 1) − (x, y − 1))2 (2.12) θ(x, y) = tan−1 ��L(x + 1, y) − (x − 1, y)�/�L(x, y + 1) − (x, y − 1)�� (2.13) 計算出每一畫素的梯度強度及方向後,運用直方圖統計的方法來決定特徵 點的方向,也就是運用特徵點周邊的畫素方向來進行統計,並以 1.5 倍高斯加 權對畫素進行加權,越接近特徵點則代表其權重越大,直方圖部份以每 10 度為 1 區段,故計有 36 區段,而主要方向必須經統計後峰值超過 80%以上,方可為 其主要方向,若出現超過 2 個以上峰值超過 80%以上,則以一個最高者為主方 向,其餘為輔方向,這樣可使特徵點更加穩定。 2.4.3.1.4. 特徵點描述 在求出每一特徵點方向後,接著便進行特徵點描述,首先,以特徵點方向 為基礎,旋轉至以特徵點方向為北的方向,以圖 2.19 為例,再以特徵點為中心 取 8*8 的區塊(不含特徵點所在行列)做為該特徵描述的依據。接著將 8*8 區 30
  • 44. 塊切成 2*2 子區塊,如圖 2.19 右圖所示,透過 Gaussian kernel 的加權再統計 每一個子區塊中 8 個梯度方向。因此,可以得到 32 維向量資訊,這種結合鄰 近畫素向量資訊的特徵描述方法逹成旋轉不變的目的。最後在實際的計算過程 中,為了讓特徵的匹配有更強的穩健性,作者建議 8*8 的區塊改為 16*16 區 塊,並切割為 4*4 子區塊,這樣獲得的向量資訊會從原 32 維改為 128 維,使 其在特徵的匹配更具有容錯性。 圖 2.19:特徵點描述示意圖[34] 2.4.3.1.5. SIFT相關技術發展 2004 年 Ke 與 Sukthankar 等人提出「PCA-SIFT」的方法[35],主要概念是將 SIFT 結合主成份分析(Principle component analysis, PCA),將原本 128 維的特徵 描述向量,運用 PCA 的技術原理,投影到低維度的向量空間中,於特徵比對時 降低維度增加運算效率。2005 年 Mikolajczyk 與 Schmid 提出「GLOH (Gradient Location Orientation Histogram)」的方法[36],主要將原特徵描述子中 4*4 棋盤 式子區塊,改為放射狀同心圓子區塊替代,如圖 2.20 所示。其中共有 17 個子 區塊,統計每一個子區塊中 16 個梯度方向,所以每一特徵點可得 272 維度的描 述向量,再運用 PCA 的技術原理將 272 維投影至 128 維的向量空間中,使其 較 SIFT 的特徵描述子更加穩定。 31
  • 45. 圖 2.20:GLOH 特徵描述子示意圖[36] 2.4.3.2. SURF SURF 於 2008 年由 Bay 等人所提出[38],該特徵係將影像轉換為積分影像 以擷取特徵點,並改良 SIFT 特徵點描述之方法,因此運算速度較 SIFT 快。主 要分為「特徵點檢測」「計算特徵點分向性」及「特徵點描述」等三個步驟, 、 分述如下: 2.4.3.2.1. 特徵點檢測 此步驟主要檢測影像中的特徵點,可分為「積分影像(Integral Images)」 、「尺 度空間建立」「海森矩陣(Hessian)特徵檢測」及「特徵點定位」等四個流程, 、 分述如下: 1. 積分影像 積分影像的目的在於可以利用查表(look-up table) 的方式快速計算影像中 任意矩形區域的像素值總和,此方法在 SURF 中使用遮罩運算時,當處理的區 域面積很大時,可以降低運算量和處理時間,其計算方法如公式(2.14),所得積 分影像示意如圖 2.21 所示。 32
  • 46. i≤x j≤y IΣ (x) = � � I(i, j) i=0 j=0 (2.14) 圖 2.21:積分影像運算示意圖[39] 以圖 2.22 為例,A、B、C、D 表示積分影像中四個積分值位置,可藉由 公式(2.15)計算矩形框灰階值總和 這種計算方式可以大幅降低 SURF 在建立尺 , 度空間遮罩運算時的運算量和處理時間。 Σ=A−B−C+D (2.15) 圖 2.22:積分影像計算矩形框示意圖[38] 2. 尺度空間建立 33
  • 47. SURF 以 SIFT 建立金字塔尺度空間的概念為基礎,但二者截然不同。SIFT 以固定高斯核函數遮罩大小,改變原始影像大小;而 SURF 則以固定原始影像 大小 改變 Hessian 偵測子的遮罩大小以實現尺度空間的效果 實際上 SURF 採 , 。 用三個倍頻,且每個倍頻內有四個不同尺度的 Hessian 偵測子。第一個倍頻尺 度空間的尺度參數定義為 1.2,2,2.8,3.6,其相對應的遮罩為 9×9,15×15, 21×21,27×27;第二倍頻尺度參數則定義為 2,3.6, 5.2,6.8,遮罩為 15×15, 27×27,39×39,51×51;第三倍頻尺度參數定義為 3.6,6.8,10,13.2,遮罩為 27×27,51×51,75×75,99×99。如圖 2.23 所示,圖中(a)為 SIFT 尺度空間建立 時,遮罩不變改變原圖尺寸大小,(b)為 SURF 尺度空間建立時原圖尺寸不變但 改變遮罩大小。 圖 2.23:SIFT 與 SURF 金字塔尺度空間建立示意圖: 圖(a) 為 SIFT;(b) 為 SURF[38]。 3. 海森矩陣(Hessian)特徵檢測 海森矩陣是 SURF 的運算核心,為了方便運算,假設函數 f(x,y),海森矩陣 同的尺度空間下所求的海森矩陣公式如(2.18),其中Gyy (x, y, σ)為高斯核函數對 H 是由函數 f 的偏導數組成,公式如(2.16)所示,展開後如公式(2.17),而在不 y 的二次偏微分,其餘類推。 34
  • 48. ∂2 f ∂2 f ⎡ ⎤ ⎢ ∂x 2 ∂x ∂y⎥ H(f(x, y)) = ⎢ 2 ∂ f ∂2 f ⎥ ⎢ ⎥ ⎣∂x ∂y ∂y 2 ⎦ (2.16) ∂2 f ∂2 f ∂2 f 2 det(H) = 2 2 − ( ) ∂x ∂y ∂x ∂y (2.17) Gxx (x, y, σ) × I(x, y) Gxy (x, y, σ) × I(x, y) H(x, y, σ) = � � Gxy (x, y, σ) × I(x, y) Gyy (x, y, σ) × I(x, y) (2.18) 為了影像與高斯二階差分運算,將離散訊號用遮罩加以簡化,故原作者將 其運算子取近似值 對於在不同尺度海森矩陣如公式(2.19) 其中 0.9 為一常數, , , 主要為補償取近似值後的誤差,最後對每一尺度每像素進行運算,當 Happrox > 1 時則判定該點為興趣點。 Det�Happrox � = Dxx Dyy − (0.9 × Dxy )2 (2.19) 4.特徵點定位 興趣點確定後,接下來就以這些興趣點搜尋確定特徵點,方法與 SIFT 中 尺度空間極值偵測相同。以圖 2.18 為例,若尺度空間中存在一個 X 點為周圍 26 個點中的最大值(上一層 9 個鄰近點、同一層 8 個鄰近點與下一層 9 個鄰近 點),則該點即判定為特徵點。 2.4.3.2.2. 計算特徵點方向性 為保持旋轉不變性,首先以特徵點為圓心取半徑大小為 6σ(σ 為特徵點所 在尺度值)的圓形區域內,對每個點進行一階 Haar 小波遮罩運算(Haar 小波邊 35
  • 49. 長為 4σ),並以高斯加權進行加權,其一階導數可表示運算區域於與方向的梯 度。再以圓心角(60 度)扇形視窗繞著特徵點掃描,並根據每個掃描角度,統計 扇形視窗內的一階導數值(dx 與 dy)的加總,以扇形區域內有最大加總值的掃描 角度作為其特徵的主要方向。如圖 2.24 所示,斑點部份為 Haar 小波遮罩運算 一階導數值(dx 與 dy),灰色扇形為掃描視窗,箭頭長度為經過加總後的大小, 箭頭方向則表示為特徵點方向。 圖 2.24:主方向示意圖[38] 2.4.3.2.3. 特徵點描述 SURF 特徵點描述的建立是以特徵點為中心建立一個邊長為20σ大小的正 方形區域,並將區域內每5σ邊長大小劃分成子區域。在各個子區域中,進行以 邊長為2σ大小的一階Haar 小波遮罩進行運算(dx與dy),以最左上角第一個像素 點起,每隔σ像素的距離進行一次運算,因此每個Haar 小波在每個子區域內共 計算25次,如圖 2.25所示。 36
  • 50. 圖 2.25:特徵點描述示意圖[38] 最後每個子區域分別累計成 Σdx、Σdy、︱Σdx︱與︱Σ dy︱的一組四個加 總值表示向量,此 16 個子區域的特徵向量便可形成一個描述該特徵點的 4*4 *4=64 維度的特徵描述子。 2.4.3.3. 小結 在開發「無標記擴增實境數位學習系統」追蹤技術上,必須講求的是即時 且穩定快速的追蹤,而上述 SIFT 及 SURF 等 2 項特徵點比對方法,對旋轉、 尺度縮放等變化都可保持不變性 另對視角變化 仿射變換也保有相當穩定性, , 、 可用於「無標記擴增實境數位學習系統」追蹤技術極為合適。本文將於錯誤! 找 不到參照來源。節比較分析兩種方法用在「無標記擴增實境數位學習系統」適 用性,並採用效能較佳之方法。 2.4.4. 座標轉換 由於在3D物件要在螢幕上與現實場景結合,而螢幕上的影像平面為2D座標, 故必需將3D圖形投影成2D圖形,並運用一些3D效果,讓2D圖形看起來有3D感 覺。轉換公式如(2.20),而攝影機的參數矩陣計算採用1997年Heikkila和Silven的 方法[40]。 37
  • 51. 1 0 0 0 R −Rt q ≅ K �0 1 0 0� � T � ������ = K[R |−Rt]������ = M������ 0 1 0 0 1 0 (2.20) 公式(2.20)中 K 為相機校正矩陣公式如(2.21),當中 Cx 與 Cy 分別代表 x 與 y 上的偏移量, 而 fx 與 fy 分別代表在真實的感光耦合元件(Charge Coupled Devices, CCD)相機中,在物理意義上 X 方向與 Y 方向之量值不一定為 1 比 1, 而影像上的像素並非 1 比 1,則必須在 X 與 Y 方向各導入一個比例參數,故 fx 與 fy 分別代表比例參數的座標點;另在感光耦合元件相機中,物理意義上的 像素也不一定是矩形,故 s 則代表 X 軸與 Y 軸的歪斜參數。 fx s cx K = �0 fy cy � 0 0 1 (2.21) R −Rt � ������ 代表相機座標系統( Q c ),展開後公式(2.22),其中 0T 1 ������為世界座標系統三維座標點,t 為位移轉換代表攝影機在世界座標系統位置, 公式(2.20)中� R 為旋轉矩陣代表攝影機之方向。 R1 R2 R3 t x Xm R6 t y Ym �R 4 R5 �� � R7 R8 R9 t z Zm 0 0 0 1 1 (2.22) 38
  • 52. 3. 無標記擴增實境視覺追蹤系統 本章首先分析影響無標記擴增實境視覺追蹤辨識因素,接著介紹無標記擴 增實境視覺追蹤技術,最後說明如何運用無標記擴增實境技術建立數位學習環 境。 3.1. 影響無標記擴增實境視覺追蹤辨識因素分析 影像處理領域的追蹤及辨識是擴增實境底層核心技術之一 如 2.3.2 節所述 , 當在進行影像追蹤、辨識及定位時,會受「環境光源」、「辨識圖樣角度」、 「影像解析度」 「辨識圖樣材質」 4 項基礎因素影響,而就本文所提運用 、 等 「無 標記擴增實境數位學習系統」能即時追蹤各式真實物件技術下,考量使用環境 大都為室內,且影像解析度基本要求為 640*480,故受「環境光源」及「影像 解析度」因素影響不大。辨識物件本身複雜度會受「辨識圖樣角度」及「辨識 圖樣材質」影響;移動速度快慢在視覺追蹤中會影響追蹤效能,故本節對「物 件複雜度」及「物件移動速度」影響追蹤效果進行說明。 3.1.1. 物件複雜度 物件的複雜度係指追蹤辨識物件上是否具有可供追蹤辨識的「特徵點」, 高複雜度物件代表該物件具備「多特徵點」;反之,低複雜度物件則表示具備 「較少特徵點」。具備高複雜度之物件容易從影像中辨識與追蹤,低複雜度之物 件則不易追蹤與辨識,故追蹤辨識的效能會受物件複雜度影響。如圖 3.1 所示 (a)為低複雜度物件,以及 SURF 之方法所找到之特徵點,(b)為高複雜度物件, 以及 SURF 之方法所找到之特徵點。很明顯可以看出高複雜度之物件具備較多 的特徵點,利於物件辨識與追蹤。 39
  • 53. 圖 3.1:物件複雜度對物件辨識追蹤之影響: (a) 低複雜度物件及 SURF 特徵 點、(b) 高複雜度物件及 SURF 特徵點。 3.1.2. 物件移動速度 追蹤物的移動速度,係指追蹤辨識物件在影像中的移動速度,通常在追蹤 辨識物件時 運用目標物移動所造成與背景差異 再取得前景區域後進行辨識。 , , 因此在即時追蹤辨識中,系統運算速度必須夠快,否則移動物件速度太快,可 能造成在系統運算完畢後,而物件已不在該位置,形成誤判,如圖 3.2 所示。 圖中(a)為設定追蹤物件 (b)及(c)以正常速度移動物件時 則都可順利追蹤物件 ; , ; 圖中(d)為當物件快速移動時,則因移動速度太快,導致追蹤誤判。 圖 3.2 物件移動速度對追蹤物件之影響 (a)設定追蹤物件;(b)及(c)物件以正 : : 常速度移動;(d)物件快速移動。 40
  • 54. 3.1.3. 小結 在「無標記擴增實境」中,如果追蹤辨識效能高,學習者在操作系統時, 才可以隨心所欲的移動辨識的物件,增加系統的實用性。相對的如果追蹤辨識 效能太慢,則學習者移動物件速度將受到限制,系統的實用性將有所侷限。 3.2. 無標記擴增實境視覺追蹤技術 本提出適用於「無標記擴增實境數位學習系統」能即時追蹤各式真實物件 技術,主要分為四步驟: 「框選追蹤物件」「色彩空間轉換」「物件偵測追蹤」 、 、 及「定位顯像」。詳細流程如圖 3.3 所示。 預先定義 3D物件 視訊影像 框選追蹤物件 擴增實 色彩空間轉換 物件偵測追蹤 定位顯像 境畫面 圖 3.3:無標記擴增實境系統流程圖 首先於影像畫面中,框選出追蹤物件,其次將物件及視訊影像色彩空間轉 換為灰階,增加運算效率。接著運用物件偵測方法,擷取出物件特徵值,並運 用物件追蹤技術,持續追蹤移動物件。最後利用定位顯像技術,將座標轉換及 疊加 3D 物件於追蹤物件上。 41
  • 55. 3.2.1. 框選追蹤物件 為了能正確且快速將 3D 物件疊加於追蹤物件,本文採用手動方式框選追 蹤物件,主要原因在於若採用自動偵測影像中移動物件,在取得初步移動物件 影像後,仍需經過複雜程序以判斷或去除其他非移動物件之部份,以正確且完 整取得移動物件。其次若欲同時處理多個移動物件,則須比對判斷出各正確物 件,會增加系統運算時間且降低整體效能。故本文採用手動框選方式以降低運 算複雜度,有效提昇整體系統效能。另在框選物件時須注意下列事項: 1.框選時應儘量避免框選過多背景部份(非物件區域)。 2.若物件外觀為不規則形,則框選時應以物件內最大矩形為框選區域。 此外,可採用載入物件圖像的方法,來取代框選追蹤物件,以增加本文所 提技術實用性。 3.2.2. 色彩空間轉換 為快速比對及追蹤移動物件,本文將框選之移動物件及擷取之視訊框轉換 為灰階影像,以降低計算維度,增加運算效率,轉換公式如(3.1) [31]。 I = 0.299 × R + 0.587 × G + 0.114 × B (3.1) 3.2.3. 物件偵測追蹤 本流程主要在於能持續辨識與追蹤框選物件,以獲取追蹤物件在影像中的 相對位置及方向,俾利後續定位顯像放置 3D 物件使用。流程圖如圖 3.4 所示, 主要步驟分為「擷取特徵點」「物件追蹤」「擷取移動區域特徵點」及「單應 、 、 性計算」等 4 項,詳細說明分述如后: 42
  • 56. 載入 全幅區域影像 物件特徵點 框選 擷取 框選區域影像 特徵點 設定影像 全幅區域 < 15 判斷載入 或是框選 擷取移動 移動區域 特徵點 物件 區域特徵 特徵點 比對 灰階影像 影像 > 15 特徵點 框選物件 載入物件 單應性 計算 物件移 動區域 4個角點 追蹤物件 灰階影像 物件追蹤 4個角點 定位顯像 資訊 影像 4個角點 圖 3.4:物件偵測追蹤流程圖 3.2.3.1. 特徵點擷取 本文提出「無標記擴增實境數位學習系統」,期望能即時追蹤各式真實物 件,且持續穩定呈現 3D 物件,以獲得良好學習成效,因此持續對物件偵測追蹤 更顯相當重要,而且必須審慎擷取物件特徵點。在擴增實境實際運用中,物件 會隨著不同的需求而有所旋轉、尺度縮放、亮度、視角及仿射變化等等,因此 物件特徵點必須能抵抗這些變化。所以本文採用 SIFT[34]及 SURF[38]特徵點擷 取方法,詳如方法如 2.4.3.1 節及 2.4.3.2 節所述,本文將分析兩種方法用在「無 標記擴增實境數位學習系統」之優缺點。SIFT 方法係採用美國俄勒岡州州立大 學 Rob Hess 所提供之 SIFT 函式庫[41],影像金字塔層數設為 4 層,高斯模糊 σ 設定為 1.6,共產生 16 個不同尺度空間,8 個尺度極值搜尋層,特徵向量維 度設為 128 維。另 SURF 係採用 OpenCV2.2 版所提供函式庫[42],參數設定為 金字塔層數設為 4 層,共產生 16 個不同尺度空間,8 個尺度極值搜尋層,特徵 向量維度設為 64 維。詳細步驟如下所述: 步驟一:影像輸入可分為框選或載入物件,首先判斷影像來源為框選或載入。 43
  • 57. 步驟二:來源為框選物件時步驟如下:  對框選物件影像擷取 SURF 特徵點,並設定 3D 虛擬物件所相對方向。  計算 SURF 特徵點在影像中相對座標,以利後續物件追蹤流程進行追蹤。  將 64 維 SURF 特徵點資訊提供給特徵點比對流程,以確認物件在影像中的 相對位置及方向。 步驟三:來源為載入物件時步驟如下:  分別對全幅區域影像及物件影像擷取 SURF 特徵點,並設定 3D 虛擬物件所 相對方向。  計算全幅區域影像 SURF 特徵在影像中相對座標,以利後續物件追蹤流程 進行追蹤。  將物件影像 64 維 SURF 特徵點資訊提供給特徵點比對流程,以確認物件在 影像中的相對位置及方向。 特徵點擷取結果如圖 3.5 所示,(a)為 SIFT 所擷取特徵點表示圖,影像大 小為 387*214,特徵點計 1,086 個,(b)為 SURF 所擷取特徵點表示圖,影像大 小為 387*214,特徵點計 274 個。由圖可知 SIFT 可取得特徵點較 SURF 多。 圖 3.5:SIFT 與 SURF 特徵點表示圖: (a)SIFT 特徵點;(b) SURF 特徵點。 但經由錯誤! 找不到參照來源。節實驗結果得知 SURF 處理 1 幅 640*480 之影像,從擷取至完成比對特徵點時間約 1 秒,較 SIFT 快約 2.5 倍,就運用在 44
  • 58. 即時系統(每秒 15~30 張影像)上,SURF 較能實現在即時系統上,故本文採用 SURF 特徵演算法擷取特徵。 3.2.3.2. 物件追蹤 經由錯誤! 找不到參照來源。節實驗結果得知 SURF 處理 1 幅 640*480 之 影像,從擷取至完成比對特徵點時間約 1 秒,在匹配比對時,若對匹配影像全 域擷取特徵點再與目標影像特徵點一一比對,然而當匹配區域越小相對匹配時 間,可縮短幅度越大,但若縮小影像大小,則所獲得特徵點相對越少不利於後 續追蹤匹配,故若配合光流法在獲得移動區域後,可以有效降低匹配區域大小 而不是縮小影像大小,應可縮短匹配時間,且並不會減少匹配點,對後續追蹤 可更加有利。 由上所述本流程主要目的為偵測出移動區域,以縮小 SURF 擷取特徵及影 像比對匹配區域,以縮短 SURF 處理時間。而方法將採用 2.4.1.1 節所述「金字 塔 L-K 光流法」[24]原因係其僅對所提供特徵點座標位置區域光流場進行分析 計算,故在計算上更顯快速簡單。所使用 OpenCV 所提供函式,金字塔結構採 用 5 層,為原始輸入影像解析度為 640*480,故 L0 為原始影像解析度,L1 為 L0 層解析度一半為 320*240,L2 又為 L1 層解析度的一半為 160*120,L3 又 為 L2 層解析度一半為 80*60,L4 又為 L3 層解析度一半為 40*30,其連續追 蹤情形如圖 3.6 所示,圖中最左第 1 張為手動框選追蹤物件,綠色點部份則為 SURF 特徵點座標,依序為連續追蹤情形。詳細步驟如下所述: 步驟一:輸入影像為框選物件時,則「金字塔 L-K 光流法」追蹤用特徵點座標 為框選物件 SURF 特徵點在影像中的相對座標。 步驟二:輸入影像為載入物件時,首先「金字塔 L-K 光流法」追蹤用特徵點座 標為全幅區域影像 SURF 特徵點在影像中的相對座標,其後因可知物 件準確位置,故後續僅對物件準確位置特徵點座標進行追蹤。 45
  • 59. 步驟三:OpenCV 中「金字塔 L-K 光流法」函式,輸出結果為特徵點移動後座 標位置 而移動區域計算方式為取所有特徵點中 X 與 Y 座標最大值及 , 最小值,二點可繪出一矩形,此矩形區域亦為移動區域。 圖 3.6:金字塔 L-K 光流法連續追蹤表示圖 3.2.3.3. 擷取移動區域特徵點 本流程主要目的為對移動區域擷取 SURF 特徵點,以供後續特徵點比對使 用,所用函數及參數設定均與 3.2.3.1 節相同。 3.2.3.4. 特徵點比對 本流程主要目的為將物件特徵點與移動區域特徵點進行比對,使用方法係 運用 SURF 作者於文中所提特徵匹配方法,在運用 RANSAC 演算法去除匹配 錯誤特徵點,最後經由錯誤! 找不到參照來源。節實驗得知在後續在單應性計 算時,至少需 15 個點特徵點方能計算出完整繪出矩形框,故條件限定當特徵點 高於 15 點時判定為成功並將相關資訊傳至下一流程,反之,判定為失敗,失敗 則改以擷取全螢幕特徵點,再重新進行追蹤比對。 3.2.3.5. 單應性計算 本流程主要目的為運用單應性特性,計算物件在影像中完整相對位置,並 對物件輪廓繪製矩形框,進而獲取 4 個角點,以利後續座標轉換使用,示意圖 46
  • 60. 如圖 3.7 所示 關於單應性計算本文採用 OpenCV 之 cvFindHomography 函式, 。 此非本文之研究重點,故未做深入之探討。 cvFindHomography 函數之參數帶入特徵點座標來取得對應之 4 個角點座標, 特徵點數量越多,輸出角點位置越準確,在前流程提及於錯誤! 找不到參照來 源。節實驗中得知,至少需 15 個點特徵點方能計算出完整繪出矩形框。 圖 3.7:單應性計算示意圖 3.2.4. 定位顯像 在獲取移動物件在影像中的相對位置後,可將 3D 物件疊加在適當位置。 但因螢幕上的影像平面為 2D 座標,故需先行將座標轉換,俾利後續 3D 物件的 疊加。其流程分為「座標轉換」及「疊加 3D 物件」等 2 項,流程圖如圖 3.8 所示,各項作法分述如下: 追蹤物 擴增實 座標轉換 疊加3D物件 件資訊 境畫面 圖 3.8:定位顯像流程圖 47
  • 61. 3.2.4.1. 座標轉換 本流程為將影像平面之 2D 座標轉換為 3D 座標,以利後續 3D 物件疊加, 座標轉換方法為 2.4.4 節所述 1997 年 Heikkila 和 Silven 所提出的計算攝影機的 參數矩陣方法[40],所使用函式 ARStudio 中所設計視覺追蹤模組之 Markerless 功能,其設計原理為將單應性計算流程中所得 4 個角點座標帶入 ARToolKit 之 座標轉換函式進行座標轉換。 3.2.4.2. 疊加 3D物件 本流程為將 3D 虛擬物件疊加至移動物件在影像中的相對位置,關於相關 繪製三維影像,本文採用 ARStudio 中所設計之影像繪製模組,其設計原理為運 用 OpenVRML 函式庫繪製三維影像,故只需要將物件追蹤之座標資訊及虛擬 物件資訊填入相對應之結構變數中,影像繪圖模組便可將指定之三維模型疊加 在移動物件上。疊加後影像如圖 3.9 至圖 3.11 所示,其中分別為物件近、中及 遠距離擴增實境畫面。 48
  • 63. 圖 3.11:物件遠距離擴增實境畫面 3.3. 運用無標記擴增實境技術建立數位學習環境 利用本文 3.2 節所提出之「無標記擴增實境視覺追蹤技術」 可用來製作 , 「無 標記擴增實境」之數位教材,或建立「無標記擴增實境」之數位學習環境,主 要分為「先期準備階段」「系統開發階段」及「完成測試階段」等三個階段, 、 分述如下: 3.3.1. 先期準備階段 本階段主要依系統目的來決定「硬體」「開發平台」及「撰寫腳本」等三 、 項,概述如下: 1. 選擇硬體:選擇符合系統運算效能需求之電腦、3D 繪圖卡、顯示器或頭戴 顯示器及攝影機。 2. 開發平台:系統開發人員,依系統目的選擇符合需求的開發平台,如 ARToolkit Professional Edition、D’ Fusion、Unifeye Design 或 ARStudio 等。 50
  • 64. 3. 撰寫腳本:依系統目的設計所呈現內容及劇情,其中呈現內容包含決定系統 使用「標記」或「無標記」,虛擬物件相對真實物體的擺放位置,如在真實 物體之上或取代真實物體等等。 3.3.2. 系統開發階段 本階段主要係依據所設計腳本,來開發相對應系統,區分為「程式撰寫」 及「3D 物件繪製」等二項,概述如下: 1. 程式撰寫:程式設計人員應依「腳本」開發程式,著重點在於設定真實物體 與虛擬物件彼此相關聯性及互動效果。 2. 3D 物件繪製:3D 物件繪製人員應依力求 3D 物件實用及美觀,並可細分「骨 架」「模型」「貼圖」及「動作設計」等四項流程。 、 、 3.3.3. 完成測試階段 本階段係在於測試系統完整性,測試內容應依「設計腳本」逐一測試,另 物件追蹤效能關係著系統的實用性,故物件追蹤效能應一併納入測試。 51
  • 65. 4. 全文下載 本文僅節錄全文之前三章,若需要較詳細之實驗方法與數據,請參考下面 兩篇論文之介紹。 4.1. 無標記擴增實境實驗平台建置與追蹤技術驗證 擴增實境技術是在真實視訊影像中加入虛擬物件 並透過追蹤與定位技術 , , 可以與人們產生良好之互動效果。在視覺追蹤應用領域裡,可分為標記與無標 記兩類應用。標記識別技術較為成熟,目前擴增實境開發平台以採用標記識別 為主;至於無標記則侷限在特定方法之識別追蹤應用領域,例如樂高玩具利用 包裝盒上之印刷圖片當作辨識物件。面對無標記擴增實境之應用日趨重要,且 必須因應不同物件採用不同特徵之識別追蹤方法來達成無標記擴增實境之應用。 而目前擴增實境平台並不提供模組化方式來替換識別追蹤方法,因此本文提出 無標記擴增實境實驗平台,以現有擴增實境套件 ARtoolKit 為基礎,整合 OpenCV 與 OpenGL 函式庫,並採用模組化方式來設計視覺追蹤方法,做為驗 證無標記擴增實境識別追蹤方法之平台,且透過視窗操作選擇不同視覺追蹤模 組來呈現各式追蹤方法,以利分析驗證追蹤效能。 作者: 鍾德煥 簡介: 主要建置 ARStudio 並採用 SURF 來實現無標記擴增實境之應用。 下載: http://ndltd.ncl.edu.tw 連結: http://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/login?o=dnclcdr&s=id=%22 099CCIT0394011%22.&searchmode=basic 52
  • 66. 4.2. 運用擴增實境技術建 立數位學習環境 隨著擴增實境技術日趨成熟,為 了製作更活潑的數位教材或建立更有效率 的數位學習環境,運用擴增實境技術建立數位學習環境之應用與日俱增。目前 相關應用大部分均侷限在標記(marker)擴增實境技術 但無標記(markerless)擴增 , 實境技術使用上更具彈性,不必受限於標記的使用,應用層面更廣。視覺追蹤 技術是擴增實境重要底層核心技術之一,但在實際應用上會受周邊環境光源、 辨識圖樣角度、影像解析度、辨識圖樣材質等 4 項因素影響。另外,在「無標 記擴增實境數位學習系統」相關應用中追蹤物件的複雜度及移動速度更會影響 追蹤辨識效果,因為好的物件辨識與追蹤效能,學習者在操作系統時,才可以 隨心所欲的移動辨識的物件,以增加系統的實用性。 本論文主要提出如何運用擴增實境的技術來製作數位教材及建立數位學習 環境,並分析現有運用在「無標記擴增實境 數位學習系統」追蹤技術的限制因 素,進而提出能追蹤各式真實物件及降低物件移動速度對物件追蹤影響之無標 記物件追蹤技術。本文所提之方法就技術層面而言能提昇無標記擴增實境的實 用性及普及性;就應用層面而言可瞭解製作擴增實境 數位教材及實現數位學習 環境相關問題。例如運用於國軍軍事裝備維修上,可有效降低人員訓練時間及 成本,並能迅速維修以提昇裝備妥善 率;用於軍中的戰術教學,可使內容更加 生動,以提昇學習者之學習興趣。 作者: 李正豪 簡介: 主要利用 SURF 搭配 ARStudio 來運作無標記擴增實境之應用,有較多 之 SURF 與 SIFT 之實驗數據。 下載: http://ndltd.ncl.edu.tw 連結: http://ndltd.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi/login?o=dnclcdr&s=id=%22 53
  • 67. 099CCIT0394007%22.&searchmode=basic 指導教授: 王順吉 副教授 網頁: http://csie.ccit.ndu.edu.tw/files/14-1011-1274,r141-1.php 54
  • 68. 參考文獻 [1] 吳聲毅,數位學習觀念與實作,學貫行銷股份有限公司,台北、台灣,第 3.2-3.3 頁,2008。 [2] Johnson, L., Levine, A., Smith, R., and Stone, S., “The 2010 Horizon Report,” The NEW MEDIA CONSORT IUM and EDUCASE Learning Initiative, California, U.S.A, pp. 9-12、21-24, 2010 [3] 薛凱文,“擴增實境應用探討—使用無標記技術”,嶺東科技大學數位媒體 研究所碩士論文,台中,2009。 [4] 鄒景平 數位學習最佳指引 , -數位學習概論 資策會數位教育研究所 台北、 , , 台灣,第 1.2 頁-第 1.23 頁,2007。 [5] Johnson, L., Levine, A., and Smith, R., “The 2009 Horizon Report,” The NEW MEDIA CONSORT IUM and EDUCASE Learning Initiative, California, U.S.A, pp. 8-10, 2009。 [6] Paul Milgram, Haruo Takemura, Akira Utsumi, Fumio Kishino, “Augmented reality:A class of display on the reality-virtuality continuum,” Telemanipulator and Telepresence Technologies, SPIE Vol. 2351, pp. 282-292, 1994. [7] 吳鴻譯,Steven K. Feiner 撰文,“擴增實境-虛擬實境的無限延伸”,科學人 雜誌,第 04 期,2002 年 06 月。 [8] Azuma, R. T.,“A survey of augmented reality,” Teleoperators and Virtual Environments ,6,4, pp. 355-385,1997. [9] Oliver Bimber. and Ramesh Raskar., Spatial Augmented Reality Merging Real and Virtual Worlds, Wellesley, assachusetts, U.S.A ,A K Peters, Ltd ,Chap.1, pp. 1-7, 2005 [10] ARToolket Maker, http://roarmot.co.nz/ar/。 [11] ARToolket Support Library, http://www.artoolworks.com/support/library/Cr eating_and_training_new_ARToolKit_markers 55
  • 69. [12] ARToolket, http://www.hitl.washington.edu/artoolkit/。 [13] Georgia Tech Augmented Environments Lab,http://www.augmentedenviron ments.org/lab/research/handheld-ar/arhrrrr/ [14] Andre´ Buchau , Wolfgang M. Rucker , Uwe Wo¨ssner and Martin Beck er, “Augmented reality in teaching of electrodynamics, ” The International Journal for Computation and Mathematics in Electrical and Electronic En gineering, Vol. 28 No. 4, pp. 948-963,2009. [15] Trond Nilsen, Julian Looser, “Tankwar Tabletop war gaming in augmented reality,” In Proceedings of 2nd International Workshop on Pervasive Gam ing Applications, 2005. [16] Steve Henderson and Steve Feiner, “Evaluating the Benefits of Augmented Reality for Task Localization in Maintenance of an Armored Personnel Carrier Turret,” Proceeding of IEEE International Symposium on Mixed and Augmented Reality (ISMAR '09), October 2009, pp. 135-144. [17] TOTAL IMMERSION, http://www.t-immersion.com [18] METAIO, http://www.metaio.com [19] W. Hu, T. Tan, L. Wang, and S. Maybank, “A survey on visual surveillance of object motion and behaviors,” IEEE Transactions on Systems, Man and Cybernetics, Part C: Applications and Reviews, Vol. 34, pp. 334-352, 2004. [20] B.K.P. Horn and B.G. Schunck, “Determining optical flow.,” Artificial Intelligence, vol 17, pp. 185-203, 1981. [21] 陳冠儒,“光流值準確性之提升”,私立逢甲大學電機工程研究所碩士論 文,台中,2007。 [22] B. D. Lucas and T. Kanade,“An Iterative Image Registration Technique with an Application to Stereo Vision” Proceedings of Imaging Understan ding Workshop , pp. 121-130, 1981. 56