More Related Content Similar to 無標記擴增實境實驗平台建置與追蹤技術驗證 (20) 無標記擴增實境實驗平台建置與追蹤技術驗證6. iv
ABSTRACT
The technique of augmented reality (AR) is to augment 3D virtual objects into
real images. Individual can interact with 3D virtual objects using tracking and
registration methods. Visual tracking is the most popular tracking approach used in
AR system, and markers are simply and generally used for identification and
tracking. Moreover, natural feature or marker-less identification and tracking is
getting more and more important and can be widely used in numerous applications.
Therefore, many natural feature extraction and object tracking schemes are
developed to efficiently identify and track natural objects. However, few of
platforms are designed to verify different tracking algorithms for AR system. In this
thesis, a novel tracking verification platform for AR environment, ARStudio, is
proposed. ARStudio is on the basis of ARToolKit, and integrates the library of
OpenCV and OpenGL. Furthermore, we modularize each component such as image
capture, image transform, visual tracking, image rendering, for the purpose of
independent usage and design. Users can select different displaying windows, and
easily demonstrate results by using drag and drop. Experimental results manifest that
ARStudio can be used for the purpose of verifying tracking schemes and AR
applications.
Keywords:Augmented Reality, Markerless, Virtual Reality, Visual Tracking, Feature
Tracking, Natural Features.
7. v
目錄
誌謝 ...............................................................................................................................ii
摘要 ..............................................................................................................................iii
ABSTRACT .................................................................................................................iv
目錄 ...............................................................................................................................v
表目錄 ........................................................................................................................viii
圖目錄 ..........................................................................................................................ix
1. 緒論.......................................................................................................................1
1.1. 研究動機 ..................................................................................................1
1.2. 研究目的 ..................................................................................................4
1.3. 研究架構 ..................................................................................................4
2. 相關文獻探討.......................................................................................................5
2.1. 擴增實境介紹 ..........................................................................................5
2.1.1. 擴增實境的源起 ...............................................................................5
2.1.2. 擴增實境的原理 ...............................................................................7
2.1.3. 擴增實境的分類 ...............................................................................9
2.1.4. 擴增實境的呈現 .............................................................................15
2.1.5. 擴增實境的應用 .............................................................................22
2.1.6. 小結..................................................................................................28
2.2. 基礎概念介紹 ........................................................................................28
2.2.1. 座標系統..........................................................................................29
2.2.2. 投影原理..........................................................................................32
2.2.3. 攝影機模型......................................................................................34
8. vi
2.2.4. 三維物件顯示 .................................................................................43
2.2.5. 小結..................................................................................................44
2.3. 應用技術介紹 ........................................................................................44
2.3.1. 標記追蹤..........................................................................................45
2.3.2. 前景物偵測......................................................................................46
2.3.3. 物件追蹤..........................................................................................50
2.3.4. 擴增實境在追蹤辨識上的限制 .....................................................54
2.3.5. 小結..................................................................................................54
3. 現有開發技術分析.............................................................................................55
3.1. 現有技術分析 ........................................................................................55
3.2. 採用套件分析 ........................................................................................60
3.2.1. ARtoolKit.........................................................................................61
3.2.2. OpenCV ...........................................................................................63
3.2.3. OpenGL............................................................................................66
3.3. 小結 ........................................................................................................69
4. 無標記擴增實境驗證平台 ARStudio 建置.......................................................71
4.1. 擴增實境開發平台選定 ........................................................................72
4.2. 擴增實境模組分析與規劃 ....................................................................74
4.3. 使用者操作視窗與基礎模組設計 ........................................................76
4.3.1. 操作視窗介面設計 .........................................................................76
4.3.2. 影像擷取模組設計 .........................................................................80
4.3.3. 影像轉換模組設計 .........................................................................82
4.3.4. 視覺追蹤模組設計 .........................................................................84
4.3.5. 影像繪製模組設計 .........................................................................88
4.3.6. 影像錄影模組設計 .........................................................................96
9. vii
4.4. 無標記視覺追蹤模組設計 ....................................................................97
4.5. 小結 ......................................................................................................108
5. 結果與分析.......................................................................................................109
5.1. 系統開發及測試環境 ..........................................................................109
5.2. 實驗平台開發成果 .............................................................................. 111
5.2.1. 實驗平台介紹 ............................................................................... 111
5.2.2. 視訊影像擷取模組 ....................................................................... 113
5.2.3. 視覺追蹤模組 ............................................................................... 114
5.2.4. 繪製模組........................................................................................ 115
5.3. 視覺追蹤 .............................................................................................. 117
5.3.1. 標記追蹤........................................................................................ 117
5.3.2. 無標記追蹤....................................................................................122
5.3.3. 無標記擴增實境應用 ...................................................................132
6. 結論...................................................................................................................134
6.1. 結論 ......................................................................................................134
6.2. 未來研究方向 ......................................................................................134
參考文獻 ...................................................................................................................136
論文發表 ...................................................................................................................144
自傳 ...........................................................................................................................145
10. viii
表目錄
表 3-1 擴增實境現有技術整理。.............................................................................60
表 5-1 硬體測試平台。..........................................................................................109
表 5-2 軟體套件整理。.......................................................................................... 110
表 5-3 無標記應用之追蹤物件。..........................................................................123
表 5-4 NB1 偵測物件一之數據整理。..................................................................128
表 5-5 NB1 偵測物件二之數據整理。..................................................................129
表 5-6 PC2 偵測物件一之數據整理。...................................................................130
表 5-7 PC2 偵測物件二之數據整理。...................................................................131
表 5-8 電腦速度對 SURF 處理之比較。 .............................................................132
11. ix
圖目錄
圖 2.1 頭戴顯示器[2]。 .............................................................................................6
圖 2.2 真實-虛擬連續性[5]。....................................................................................6
圖 2.3 擴增實境的基礎架構[51]。 ...........................................................................8
圖 2.4 擴增實境的基本運作。..................................................................................9
圖 2.5 ARToolKit 標記範例[72]。............................................................................10
圖 2.6 自行設計可用於 ARToolKit 之標記。........................................................ 11
圖 2.7 ARTag 應用實例[78]。 .................................................................................. 11
圖 2.8 透過 QR-Code Generator 產生之範例[59]。............................................... 12
圖 2.9 QR Code 結合擴增實境之應用[8]。 ............................................................13
圖 2.10 無標記擴增實境應用[83]。 .......................................................................14
圖 2.11 樂高擴增實境展示機[82]。 .......................................................................14
圖 2.12 一般顯示器呈現原理。..............................................................................16
圖 2.13 頭戴式影視顯示器呈現原理。..................................................................17
圖 2.14 頭戴式光學投射顯示器呈現原理。..........................................................17
圖 2.15 光學投射顯示器原理。..............................................................................18
圖 2.16 Lumus 公司的產品資訊[60]。....................................................................19
圖 2.17 第一部星際大戰中的場景[61]。 ...............................................................20
圖 2.18 日立的 Transpost 系統[62]。.......................................................................20
圖 2.19 N-3D 立體顯示器[63]。 ..............................................................................21
圖 2.20 Heliodisplay 空氣投影[64]。.......................................................................22
圖 2.21 隱形眼鏡鏡頭[65]。 ...................................................................................22
圖 2.22 魔法書的應用[13]。 ...................................................................................23
12. x
圖 2.23 化學教學應用[14]:(a)擴增化學;(b)BSM 模型。 ................................ 24
圖 2.24 太陽與地球之運轉[15]。 ...........................................................................24
圖 2.25 心室模型[18]。 ...........................................................................................25
圖 2.26 裝甲運兵車維修作業[19]。 .......................................................................26
圖 2.27 虛擬寵物遊戲 EyePet™[67]。...................................................................26
圖 2.28 損毀古蹟重建之應用[20]:(a)原址;(b)疊加虛擬模型之面貌。........... 27
圖 2.29 虛擬博物館系統[21]。 ...............................................................................28
圖 2.30 物體與物體座標系統[55]。 .......................................................................30
圖 2.31 世界座標系統與物體座標系統[55]。 .......................................................30
圖 2.32 物件與觀察者座標系統[55]。 ...................................................................31
圖 2.33 投影問題[56]。 ...........................................................................................32
圖 2.34 正交投影示意圖。......................................................................................33
圖 2.35 透視投射示意圖。......................................................................................34
圖 2.36 針孔攝影機模型[52]。 ...............................................................................35
圖 2.37 針孔攝影機模型之投影關係圖[52]。 .......................................................36
圖 2.38 影像座標系統 ),( yx 與攝影機座標系統 ),( camcam yx 。 ................................. 37
圖 2.39 世界座標系統 wQ 與攝影機座標系統 cQ 之轉換圖[52]。......................... 40
圖 2.40 三維虛擬物件呈現流程。..........................................................................43
圖 2.41 標記座標與攝影機座標關係圖[7]。 .........................................................45
圖 2.42 ARToolKit 之標記追蹤定位流程。 ............................................................46
圖 2.43 移動車輛輪廓偵測[29]。 ...........................................................................51
圖 3.1 ARToolKit NFT 之無標記應用範例[72]。................................................... 56
圖 3.2 辨識影像放置於標記外之應用[72]。 .........................................................57
圖 3.3 ARToolKit 運作架構。 ..................................................................................62
13. xi
圖 3.4 OpenCV 運作架構。......................................................................................64
圖 3.5 OpenCV 使用者介面運作架構。..................................................................66
圖 3.6 OpenGL 與一般程式之運作關係。..............................................................67
圖 3.7 OpenGL 使用者介面運作關係。..................................................................69
圖 4.1 無標記擴增實境平台建構流程。................................................................72
圖 4.2 開發平台選定流程。....................................................................................73
圖 4.3 整合開發環境模組運行架構........................................................................75
圖 4.4 平台操作介面。.............................................................................................77
圖 4.5 平台操作介面模組列舉。.............................................................................79
圖 4.6 Marker 模組之樹狀結構資訊。....................................................................85
圖 4.7 ARStudio 視覺追蹤模組功能。 ..................................................................102
圖 4.8 物件追蹤流程。..........................................................................................103
圖 4.9 區域式追蹤示意圖。..................................................................................108
圖 5.1 ARStudio 執行主畫面。 .............................................................................. 112
圖 5.2 ARStudio 六分割運作畫面。 ...................................................................... 113
圖 5.3 影像屬性設定。.......................................................................................... 114
圖 5.4 透過 Tracker 之方法進行物件偵測。 ....................................................... 115
圖 5.5 三維物件之繪製:(a)透過 OpenGL 繪製 (b)透過 OpenVRML 繪製。 116
圖 5.6 標記訓練。.................................................................................................. 118
圖 5.7 在標記處繪製三維虛擬物件。..................................................................120
圖 5.8 多個標記物件偵測與繪製。.......................................................................120
圖 5.9 標記擴增實境驗證:(a)無遮蔽;(b)部分邊框遮蔽。.............................121
圖 5.10 透過 OpenVRML 呈現標記物件不同觀看視角之三維物件影像。 .....121
圖 5.11 虛擬物件遮蔽問題。................................................................................122
14. xii
圖 5.12 SURF 特徵點偵測示意圖。......................................................................123
圖 5.13 SURF 無標記物件區域追蹤:(a)正面物件;(b)物件縮小及旋轉。 ....124
圖 5.14 物件一之 SURF 特徵資訊:(a)原始影像;(b)特徵點表示影像。 ......125
圖 5.15 物件二之 SURF 特徵資訊:(a)原始影像;(b)特徵點表示影像。 ......125
圖 5.16 SURF 追蹤撲克牌:(a)正面物件;(b)(c)(d)物件旋轉及縮小。 ...........126
圖 5.17 無標記擴增實境之應用:(a)一般視角;(b)旋轉後之視角。 ..............132
圖 5.18 遮蔽物件之情形。....................................................................................133
16. 2
增實境(Augmented Reality, AR);智慧型手機夾帶其在行動力上之優勢,是以往
電腦所無法比擬的。例如 IKEA 就透過這項技術來介紹其一系列的家具,消費
者可以在展示場透過智慧型手機之協助,運用擴增實境之技術來將家具與空間
進行結合,最後透過結合之複合影像來決定是否進行採購。另外信義房屋創新
推出的「iPhone 看屋 App」,不管消費者在哪裡,只要拿起手機對準所在地的街
景,螢幕就會列出附近相關物件資訊,這些都是智慧型手機的發展的優勢。在
頭戴式顯示器(Head-Mounted Display, HDM)不夠便利,而三維立體影像投影技
術依然處在研發階段之情況下;智慧型手機之顯示器,就順理成章的成為擴增
實境用來顯示虛擬物件之平台。也因為如此,整個擴增實境之應用發展,在這
一兩年間得以迅速擴大及成長。
以往購買玩具在尚未拆開包裝之前,很難得知玩具之特性與全貌;現在樂
高(LEGO)採用擴增實境之技術,只需要在特殊展示螢幕前,讓展示器辨識到該
包裝盒上之商品圖標資訊,就可以在該顯示器看到該款玩具的三維立體動畫展
示,讓消費者迅速瞭解並感受此款玩具的特性。另外,被人津津樂道的魔法書
(MagicBook)應用,讓閱讀不再是那樣枯燥與呆板,配合三維立體即時互動之呈
現方式,會使得書本變的更加生動有趣。這些都是擴增實境在標記(Marker)應
用上之例子。
然而綜觀全盤擴增實境之應用,大多數依然需要配合標記來運作,對於現
實環境來說,要將標記帶在身邊有點不切實際,而且目前之開發套件並非採用
相同之標記圖庫,所以往往只能在固定領域採用特定之標記,可想而知其應用
範圍將受到很大之限制。因此,若可以採用現實生活中之物件來取代標記,相
信擴增實境之應用將會大為提升。
目前坊間已經有許多開發環境可供使用者選擇,然而大部分採用標記方式
運作,當然現有開發環境也陸續提供無標記(Markerless)之應用,不過依然侷限
18. 4
1.2. 研究目的
近幾年來擴增實境相關技術之發展與應用與日俱增,越來越多的研究學者
投入相關研究領域。這種融入現實生活並且可以與虛擬物件有良好即時互動效
果 之 技 術 , 不 但 具 有 虛 擬 實 境 所 強 調 的 想 像 力 (Imagination) 、 融 入 性
(Immersion)、互動性(Interaction),更將環境背景轉到現實生活中,提升人們接
受度。
然而,目前既有擴增實境之開發函式庫或開發平台,主要目的為提供擴增
實境之應用開發,無法提供無標記擴增實境技術研究方法之驗證。故本文預計
整合 ARToolKit、OpenCV 與 OpenGL 等函式庫,提出一個適合無標記擴增實境
相關技術研發之驗證平台,且此平台各項功能採用模組化設計,以更彈性提供
各種追蹤與辨識方法之驗證。
1.3. 研究架構
本論文分為六章,第一章是緒論,介紹研究動機、研究目的和論文架構;
第二章是相關文獻探討,介紹擴增實境之既有技術與相關研究,並對現有擴增
實境開發平台做分析;第三章是現有開發技術分析,分析目前既有擴增實境開
發套件;第四章是無標記擴增實境驗證平台建置,說明開發平台的設計架構;;
第五章是結果與分析,介紹擴增實境開發平台之成果;第六章是結論,本文結
論以及未來研究方向。
20. 6
圖 2.1 頭戴顯示器[2]。
對許多人來說,或許是第一次聽到擴增實境這一個名詞,然而另外一個名
詞-「虛擬實境(Virtual Reality)」,相信一定不會感到陌生。在 1994 年 Paul
Milgram 和 Fumio Kishino 等人[5],提出了「真實-虛擬連續性(Reality–Virtuality
Continuum)」的理論,他們將真實環境和虛擬環境分別作為連續性的兩端,如
圖 2.2 所示,然而位於兩邊端點之間的被稱為「混合實境(Mixed Reality)」。其
中靠近真實環境的是擴增實境,靠近虛擬環境的則是擴增虛境(Augmented
Virtuality)。
圖 2.2 真實-虛擬連續性[5]。
以融入的程度來區分,虛擬實境與擴增實境仍有差異存在的,擴增實境提
供一個複合式之景觀,讓使用者所見之場景為真假兼具;而虛擬實境則是一種
21. 7
完全融入之環境(Totally Immersive Environment),讓使用者的視覺、聽覺與知覺
等,則必須完全在虛擬實境系統的控制中,系統必須模擬出一個涵蓋使用者各
種輸入處理之完全人造世界,這是一個非常有挑戰性的議題。
在 1997 年 Ronald Azuma[6]提出了擴增實境是由虛擬環境(Virtual
Environments, VE)所變化而來的(或者稱呼為虛擬實境)。所謂的虛擬環境技
術是讓使用者完全沉浸在一個合成環境中,使用者無法看到在位於他周圍的真
實世界;而擴增實境則在真實世界中複合疊加虛擬物件,換句話說,擴增實境
允許使用者看到真實的世界。為此 Azuma 下了一個更明確的定義,它必須同時
擁有下面三個特性:一是結合真實與虛擬(Combines real and virtual)、二是即時
性的互動(Interactive in real time)、三是資訊的呈現必需在三度空間內(Registered
in 3-D)。
2.1.2. 擴增實境的原理
有別於虛擬實境技術,是以假想空間將現實畫面完整重現於電腦畫面;而
擴增實境技術,則是將實際資訊以虛擬方式重疊至現實環境,藉由將虛擬資訊
融入真實環境以提高生活之便利。
在 2005 年 Oliver Bimber 和 Ramesh Raskar 的「Spatial Augmented Reality
Merging Real and Virtual Worlds」著作一書中提出了擴增實境的基礎架構[51],
如圖 2.3 中所示。第一層的追蹤(Tracking)與定位(Registration)、顯示技術
(Display Technology)和三維立體繪圖(Rendering)為基礎部分。第二層為人機互
動 機 制 (Interaction devices and techniques) 、 展 示 (Presentation) 和 創 作
(Authoring),如果與虛擬實境比較的話,目前虛擬實境技術則較為成熟。因為
虛擬實境的大部分研究已經邁向此階段,而目前擴增實境則依然停留在基礎階
段。第三層為應用程序,透過擴增實境之相關技術,有效的將結果呈現在使用
22. 8
者面前。第四層則是終端使用者。
圖 2.3 擴增實境的基礎架構[51]。
關於追蹤定位技術,依據不同的應用範圍,將會採用不同的追蹤定位技術。
以追蹤技術來說,有計算機視覺、電磁裝置、全球地位系統(Global Positioning
System, GPS)、羅盤、迴轉儀(Gyroscope)等技術;對於影像處理技術來說,利
用計算機視覺來進行追蹤是一個值得發展的一個領域。視覺追蹤(Visual
Tracking)又可以區分標記與無標記兩類。至於定位技術,主要是將追蹤資訊準
確地呈現在裝置上。例如在擴增實境的應用中,將虛擬物件準確的取代真實影
像中的被追蹤物件。
此外有別於既有的追蹤與定位,視覺追蹤技術採用了攝影機來當作輸入裝
置,所以額外增加校準(Calibration)這一個部分,其主要是由軟體即時地計算攝
影鏡頭的各項參數,例如視野範圍、感應位置與物件位置、歪斜率等等。所以,
以視覺追蹤技術來說,可以分為追蹤、定位與校準這三個部分。
將視覺追蹤技術用於擴增實境應用,其基本運作流程分為四大部分,圖 2.4
為標記視覺追蹤運作示意圖:
(1) 從攝影機讀取標記物件之影像。
(2) 分析追蹤物件之角度及位置,進行位置及姿態的估算。
(3) 載入三維立體虛擬物件,並進行疊加作業。
User
Application
Interaction Devices and Techniques Presentation Authoring
Tracking and Registration Display Technology Rendering
24. 10
理的方式,對系統效能及現場光源變化的反應程度各有不同。目前廣泛被使用
的基準追蹤(Fiducial Base Tracking)系統是由 Kato 等人[7]發展出來並應用於
ARToolKit,它提供相對可靠穩定建置應用的函式庫,圖 2.5 為 ARToolKit[72]
常用之標記。
圖 2.5 ARToolKit 標記範例[72]。
標記擴增實境系統必須經由特定標記、圖樣提供系統辨識及定位,除了函
式庫所包含之標記外,也可以依據需求自行設計標記圖示,如圖 2.6 所示。為
了能夠準確的追蹤定位,ARToolKit[72]官方建議圖標設計的原則如下:
(1) 在黑色正方形中間包含一個白色正方形,可參考套件所附之 blankPatt.gif
圖檔。
(2) 白色正方形內之圖案採用黑色、白色或彩色來設計。
(3) 白色正方形內之細部圖案最好為非對稱設計。
25. 11
圖 2.6 自行設計可用於 ARToolKit 之標記。
不同的開發套件之標記也採用不同的設計方式,如圖 2.7 為 ARTag[78]官
方網站的應用介紹,可以從圖中看到其標記設計與 ARToolKit 之標記不同。依
據 ARToolKit[72]官方網站介紹,ARTag 開發套件針對 ARToolKit 之標記部分進
行修改,而運作原理則與 ARToolKit 相同。
圖 2.7 ARTag 應用實例[78]。
QR Code(Quick Response Code)為另一種常見的標記,它是二維條碼的一
種,在 1994 年由日本 Denso-Wave 公司發明[58]。其來自英文「Quick Response」
26. 12
的縮寫,即快速反應的意思,因為發明者希望 QR Code 可讓其內容快速被解碼。
QR 碼目前廣泛應用於日本,並為目前日本最流行的二維空間條碼。它在水平
與垂直方向中都包含有意義之資訊,所以比普通條碼可儲存更多資料,亦無需
像普通條碼般在掃描時需直線對準掃描器。
圖 2.8 為透過 QR-Code Generator[59]所產生之 QR Code 圖像,呈正方形,
只有黑白兩色。在 3 個角落,印有較小,像「回」字的正方圖案,主要用於幫
助解碼軟體定位,使用者不需要對準,無論以任何角度掃描,資料仍可正確被
讀取。也因為辨識率高,所以有學者用它取代原本的標記,將其運用在擴增實
境的應用上。Kan 等人[8]在 2009 年就將 QR Code 結合擴增實境應用於商品之
展示,如圖 2.9 所示。
圖 2.8 透過 QR-Code Generator 產生之範例[59]。
27. 13
圖 2.9 QR Code 結合擴增實境之應用[8]。
目前智慧型手機在擴增實境上的應用有越來越廣泛之趨勢,QR Code 搭配
手機的應用也是行之有年,相信未來會有更多結合 QR Code 在擴增實境之相關
應用被提出;不過,這只是整個擴增實境應用的一小部分,而有更大的應用將
會在無標記的應用領域上。
2.1.3.2.無標記系統
有別於標記系統,無標記系統採用自然特徵追蹤(Nature Feature Tracking)
當作基礎技術,不需採用特定之標記、圖樣來進行追蹤辨識與定位,使用者可
以依據喜好自行設計圖樣或使用真實物件來達成追蹤辨識與定位之目的。在
2004 年 Gordon 等人[9]使用不變的影像特徵來進行識別追蹤。Yuan 等人[11]在
2005 年提出一個廣義的擴增實境定位方法,運用此概念即可結合自然特徵追蹤
方法來進行定位。關於無標記之特徵點辨識,常採用物件的紋理、顏色、輪廓
等來當作辨識之條件。
德國 Metaio 公司之擴增實境開發套件 Unifeye,在其白皮書中就採用圖形
30. 16
種最簡型式的擴增實境系統,除了桌上型顯示器之外,還有一些手持式顯示
(Handheld Display),例如智慧型手機和 PDA 就是現在非常常見到的行動顯示
器,其顯示運作原理與傳統顯示器類似,故本文將這類手持顯示器歸類為一般
顯示器類型,如圖 2.12 為擴增實境透過顯示器呈現之示意圖。
真實場景 攝影機
3D虛擬物件 繪圖系統
一般之顯示設備
整合後之
擴增視訊
真實場景與虛擬
物件視訊整合
真實場景視訊
圖 2.12 一般顯示器呈現原理。
2.1.4.2.頭戴式之影視顯示型
頭戴式之影視顯示型(Video see-through HMD),也就是所謂頭戴式顯示
(Head-mounted Display, HMD),是一個具有外部影像擷取、定位,且能和電腦
所產生的影像,以畫面重疊方式整合顯示之呈現系統。此種方式早已廣泛應用
於虛擬實境領域中,而頭戴影視式顯示器,則是將最後整合畫面,以影視方式
顯示於頭戴式顯示螢幕上。此種方式如同一般顯示器,空間的立體感會消失,
如果運算上有所延遲,也會影響整個呈現結果,如圖 2.13 為擴增實境透過頭戴
式之影視顯示器呈現之示意圖。
33. 19
圖 2.16 Lumus 公司的產品資訊[60]。
2.1.4.4.未來顯示器之發展
在 1977 年推出的「星際大戰(Star Wars)」系列電影中,莉亞公主發出的信
息,被以全息圖(Hologram)的形式發送給絶地武士,如圖 2.17 為星際大戰中之
場景畫面。在「回到未來 2」電影中,也有呈現這種投影技術之情節。簡單地
說,全息圖就是讓影像直接出現在空氣裡面,不管是二維還是三維影像都將栩
栩如生地出現在空氣中呈現。對於這樣的技術,不管對於過去甚至現在來說,
都是具有挑戰性,若在此技術成熟並普及在生活中後,擴增實境之應用也將更
生活化。
34. 20
圖 2.17 第一部星際大戰中的場景[61]。
日 本 日 立 公 司 人 類 交 互 作 用 實 驗 室 (Hitachi Human Interaction
Laboratory)[62]就有從事這方面的開發,如圖 2.18 所示。其命名為 Transpost,
這套系統可以將二維圖像轉變成立體圖像,它能使人不用戴特殊眼鏡就能看到
立體圖像,就有如星際大戰中的全息通訊系統。
圖 2.18 日立的 Transpost 系統[62]。
日本 Aircord 實驗室[63]也利用 iPAD 展示他們研發的 N-3D 立體顯示器,
如圖 2.19 所示,用一個金字塔形的銀幕膠片來投射影像內容,讓人們直接使用
36. 22
圖 2.20 Heliodisplay 空氣投影[64]。
除了上述所介紹的顯示器之外,目前還有眾多之顯示方式被提出,例如華
盛頓大學(University of Washington)的 Babak Parviz[65]在 2009 年時便在北京的
BioCas 研討會上展示一款可代替 LED 電腦螢幕、能將影像直接投射到視網膜
上之隱形眼鏡,如圖 2.21 中所示,左圖為隱形眼鏡電路與鏡頭,右圖為配戴在
兔子眼睛上後的情景。不管這些新新的顯示技術目前的是否已經成熟,相信未
來都會影響著擴增實境之發展。
圖 2.21 隱形眼鏡鏡頭[65]。
2.1.5. 擴增實境的應用
眾所皆知,擴增實境的應用,正如火如荼地在各個領域中展開。可將其應
37. 23
用在教育、醫學、遊戲、軍事、維修、商業等各種領域中,而各個領域的相關
文獻也都不斷被提及,甚至有些已經朝向商品化階段。
魔法書為 Mark 等人[13]在華盛頓大學之人機介面科技實驗室(Human
Interface Technology Laboratory)所進行之研究計畫。如圖 2.22 所示,它是使用
手持式之擴增實境顯示(Hand Held Display, HHD)方式,將虛擬物件與真實的書
整合呈現,在人機介面操作上,則是以書籍、電腦搭配手持式顯示器,所整合
之真實與虛擬混成環境,作為整個系統之溝通介面。若使用者並未使用任何擴
增實境之嵌入式科技,這本魔法書就如同一般書籍一樣,使用者可以直接進行
閱讀;若不同的使用者,在不同的角度分別使用手持式顯示器觀看書籍,在書
籍的上方,則會出現配合書籍內容的虛擬主角、虛擬物件與虛擬場景,而且會
隨著觀看角度不同,而改變呈現效果,從傳統實體書籍搖身一變成為立體多媒
體書籍。當使用者翻閱不同畫面時,不同的場景與情節,將搭配書籍內容以即
時改變方式,呈現在觀賞者的眼前。
圖 2.22 魔法書的應用[13]。
在教育學習上,可將其應用於數位學習,或者互動的幼教教材,甚至將其
應用在以往較抽象的物理化學原理上。2007 年 Bötschi 等人[14]在有機化學的教
學上,就針對採用擴增化學(Augmented Chemistry, AC)這一套有形的使用者介
面與傳統 BSM 模型(Ball-and-Stick Model, BSM)這兩種教學方式做一比較。如
42. 28
圖 2.29 虛擬博物館系統[21]。
2.1.6. 小結
從上述討論可知擴增實境之發展,是經過漫長歲月之洗滌,在相關技術相
繼成熟後,才能有此佳績。未來其所能帶給人類之貢獻,是可以想像的,至於
要怎麼樣運用此技術,更是相關研究人員該探索的,相信不久之將來,一定會
有更多的探討文獻相繼提出,讓這個研究領域的技術融入生活中。
2.2. 基礎概念介紹
要處理三維電腦繪圖,就必須先瞭解座標的相關知識,想要在二維的螢幕
描繪出三維空間之物體,就必需要瞭解投影之原理。換句話說,三維物體之呈
現是使用投射的概念,將三維圖形投影成二維圖形在螢幕上顯示出來。雖然投
影成二維圖形,但為了讓此二維圖形看起來有三維的感覺,可以使用一些三維
效果讓觀看者產生三維的幻覺。
這些看似簡單的觀念,其背後都有一堆數學算式作為基礎,簡單的來看待,
就是需要在不同的座標系統間進行轉換,最後才能有一個滿意之呈現效果。
44. 30
系統是相互獨立的。圖 2.30 顯示了物體與物體座標系統的關係,而圖 2.31 則
顯示了世界座標系統與物體座標系統之間的關係。
z-axis
x-axis
y-axis
物體
物體座標系統
O
圖 2.30 物體與物體座標系統[55]。
z-axis
x-axis
y-axis
x-axis
z-axis
y-axis
物體
物體座標系統
O
O
世界座標系統
圖 2.31 世界座標系統與物體座標系統[55]。
物體座標系統在三維世界中處處存在,每一個物體發生移動或改變方向
時,和該物體相關的物體座標系統,也隨之移動或改變方向,這將大幅簡化對
45. 31
各個模型的控制。
觀察座標系統是與觀察者相關的座標系統,也被稱為攝影機座標系統,在
該座標系中採用右手座標系統,攝影機觀察點位於原點,X 軸為右,Z 軸為前,
Y 軸向上,而這裡的上方,並非一定是世界座標中的上方,而是指攝影機本身
的上方,如圖 2.32 所示。觀察者座標系在三維圖形處理中非常重要,它是聯繫
三維世界座標系統與二維設備座標系統的橋樑。
z-axis
x-axis
y-axis
O
物體
視棱台
觀察點
圖 2.32 物件與觀察者座標系統[55]。
設備座標系統是與圖形設備的物理參數有關之座標系統;而正規化座標系
統是獨立於具體物理設備的一種座標系統,其具有顯示空間和在 X 與 Y 方向上
都是從 0 到 1。對於每台物理設備而言,NDC 與 DC 是座標值相差一個比例因
子,它可以看成是一個抽象的圖形設備。
最後是螢幕座標系統,其為顯示器的平面座標系統,它的座標原點位於螢
幕的左上角,水平方向右為 X 軸方向,垂直向下為 Y 軸方向,以像素為單位。
任何物體的頂點座標最終都要轉化為螢幕座標系統中的座標來進行顯示。
49. 35
影像平面 針孔平面
光學軸
H
h
f D
圖 2.36 針孔攝影機模型[52]。
在圖 2.36 中可看到兩個相似三角形,利用相似三角形原理推得:
D
H
f
h
=− 或
D
H
fh =−
(2.1)
其中各個參數說明如下:
(1) f 是攝影機焦距。
(2) D 是攝影機到物體的距離。
(3) H 是物體實際高度。
(4) h 是 Image plane 中物體的圖像高度。
將整個應用擴展到三維空間,並將整個光學軸(Optical Axis)往下移位,其
目的在於消除負號,讓所有的計算都在光學軸之上。在基本的針孔攝影機模型
中,將投影中心放置在歐氏座標系統(Euclidean Coordinate)的原點,並將影像平
面放置在 Z 軸上距離原點為 f 的位置。在此針孔攝影機模型之下,一個在三
維空間的點 T
)ZY,X,(Q = ,其投影至二維影像上的 q 點,其中 ),( screenscreen yxq = 。
也就是由投影中心與三維座標點 Q 之連線和成像平面之交點,如圖 2.37 所示。
50. 36
影像平面
光學軸
Q=(X, Y, Z)
o
f
投影中心
q=(x, y, f)
z-axis
y-axis
x-axis
圖 2.37 針孔攝影機模型之投影關係圖[52]。
將座標為 ),,( ZYX 之物理點Q 映射到投影平面上座標為 ),( screenscreen yx 之點q的
過程稱為投影變換(Projective Transform),而齊次座標可把維度為 n 的投影空間
上的點用(n+1)維向量表示;換句話說,二維平面投影空間,可以使用一個三維
向量 )q,q,(qq 321= 來表示該平面的點,如公式(2.2)所示,其中λ為一比例係數,
因為投影空間上的所有比例不變,因此可以透過除以 3q 來計算實際之像素座標
值。
=
3
2
1
q
q
q
f
y
x
q
q
λ (2.2)
藉由前面所提之相似三角形的原理,可推算出三維座標點 T
)ZY,X,(Q = 投影
到影像平面上之二維點 T
Z
Y
f
Z
X
fq ),(= ,故可獲得從三維空間投影至二維空間之
映射關係。其中的投影中心又稱之為攝影機中心(Camera Center)或光學中心
(Optical Center),Z 軸稱之為主軸(Principal Axis),而主軸與影像平面的交點稱
之為主點(Principal Point)。對於大部分影像呈現採用矩形而非正方形,故針對 X
軸與 Y 軸分別定義兩個不同之焦距 xf 與 yf ,透過公式 (2.1)推得投影平面上座
54. 40
[ ] cc QIKq 0|= (2.13)
一般而言,在真實空間下的三維座標皆以世界座標系統來表示,而非以相
機座標系統(Camera Coordinate),所以在這之間還有一個座標轉換的動作,在二
個座標系統之間的關係,可用旋轉(Rotation)與位移(Translation)來轉換,如圖
2.39 所示。
C
攝影機中心 z-axis
y-axis x-axis
O
x-axis
y-axis
z-axis
=
y
x
q
=
1
w
w
w
w
Z
Y
X
Q
),( tR
圖 2.39 世界座標系統 wQ 與攝影機座標系統 cQ 之轉換圖[52]。
假 設 Q 為 一 在 世 界 座 標 系 統 下 之 三 維 座 標 點 , 齊 次 座 標 點 以
T
wwww ,1)Z,Y,(XQ = 表示;而 cQ 表示為在相機座標系統下之相對三維座標點,則
wQ 與 cQ 之關係可經由一位移矩陣 T 與一旋轉矩陣 R 來表示,其中位移向量 t
表示攝影機在世界座標系統之位置,而 R 表示攝影機之方向,故將之表示成公
55. 41
式(2.14):
wTw
x
x
T
x
x
w
w
w
c Q
RtR
Q
TR
Z
Y
X
TRRR
TRRR
TRRR
Q
−
=
=
=
1010
11000
44
13
31
33
3333231
2232221
1131211
(2.14)
並將之導入公式(2.13)式,則可得
[ ] w
w
w
w
Ty
x
QtIKR
Z
Y
X
RtR
cf
cf
q −=
−
= |
1
10
100
0
0
(2.15)
公式(2.15)即為針孔攝影機模型一般的投影關係式,相機投影矩陣則為
[ ]-t|IKRM = ,其自由度(Degrees Of Freedom)為 9;其中 K 為 3 個 ),,( yx ccf 、R
為 3 個和 t 為 3 個。包含在 K 矩陣之中的參數,稱之為攝影機之內部參數
(Intrinsic Parameter),而參數 R 和 t 則稱之為攝影機之外部參數(Extrinsic
Parameter)。所謂內部參數是用來定義相機座標與影像座標之關係,而外部參數
則是用來定義相機座標與世界座標之關係,可透過相機校正來獲得這些參數。
另外,在真實的感光耦合元件(Charge Coupled Devices, CCD)相機中,物理
意義上的像素在 X 方向與 Y 方向之量值不一定為 1 比 1。換句話說,如果影像
上的像素並非 1 比 1,則必須在 X 與 Y 方向各導入一個比例參數 ),( yx qq 來做
調整;因此感光耦合元件相機之相機校正矩陣 K 可表示成公式(2.16)。
56. 42
=
100
0
0
yy
xx
cf
cf
K (2.16)
其中, yyxx fqffqf == , 。另外,在感光耦合元件相機中,在物理意義上的
像素也不一定是矩形,而 X 軸與 Y 軸有一歪斜的參數 s ,最後將整個完整的
感光耦合元件相機校正矩陣表示為:
=
100
0 yy
xx
cf
csf
K (2.17)
因此整個呈現過程是經過多重的座標系統轉換,若不考慮過多的參數,則
針孔攝影機模型之投影可用公式(2.18)表示。對於整個攝影機之參數矩陣計算採
用 Heikkila 和 Silven[22]的方法,這也是 OpenCV 內部所採用之方法。
[ ] wwwT
MQQRtRKQ
RtR
K =−=
−
≅ |
10
0100
0010
0001
q (2.18)
重新整理各個參數說明如下:
(1) 二維影像上的 q 點。
(2) 三維座標點 Q。
(3) 三維齊次座標點 Qw。
(4) 三維攝影機座標點 Qc。
(5) M 稱為攝影機投影矩陣。
(6) K 稱為攝影機校正矩陣。
57. 43
(7) R 稱為旋轉矩陣。
(8) T 稱為位移矩陣。
(9) t 稱為位移向量。
2.2.4. 三維物件顯示
上一節介紹了針孔攝影機模型的運作原理,在三維電腦繪圖領域中,也運
用類似的觀念,只不過其需要經過更多的座標系統轉換,這樣才能使物體以適
合的位置、大小與方向顯示出來,依據 OpenGL Programming Guide [53] 與
Computer Graphics Using OpenGL[54]書籍整理座標系統轉換流程如圖 2.40 所
示。三維虛擬物件要有三維空間呈現之效果,其必須將三維物件透過相關的幾
何座標轉換轉成人類所接受之座標,再利用投影變換矩陣來將影像轉換成二維
影像,除此之外還需要仿造人類的視野來決定哪些影像將呈現在顯示設備上,
除此之外,面對不同的顯示設備還有不同設備間之座標轉換要處理,整個詳細
流程就不在此討論。
三維物
件
幾何變換
矩陣
投影變換
矩陣
透視處理
視埠變換
矩陣
物體座標 人眼座標 剪裁座標 設備座標 視窗座標
圖 2.40 三維虛擬物件呈現流程。
在擴增實境的應用中,要將三維虛擬物件融入真實環境之中,首先必須將
三維立體物件仿造攝影機擷取影像的原理來運作,最後利用三維繪圖技術將真
實環境與三維立體虛擬物件做疊加的動作,如此才能達到將虛擬物件融入真實
環境之中。
59. 45
做一簡單之介紹,再來則介紹追蹤所需要之相關背景技術。
2.3.1. 標記追蹤
目前廣泛被使用的基準追蹤系統是由 Kato 等人[7]發展出來並應用於
ARToolKit 中,如圖 2.41 所示,其透過座標轉換將標記座標轉換成攝影機座標,
然後依據門檻值取得標記矩形之四條線段,接著偵測標記內之圖案並找到具體
的對應識別 ID,接著將標記位置透過向量矩陣轉換算出三維立體虛擬物件之位
置,然後載入圖標識別碼對應之三維立體虛擬物件,最後在標記位置上繪製虛
擬物件,運作示意圖如圖 2.42 所示。
Marker Coordinates
(Xm,Ym,Zm)
Marker
Camera Screen
Coordinates Camera Coordinates
),( cc yx
Xc
Yc
Zc
cy
cO
cx
Zm
Ym Xm
圖 2.41 標記座標與攝影機座標關係圖[7]。
61. 47
型。然後,使用目前的圖像中減去背景圖片來偵測移動像素。其中影像片段中
固定不變的部份視作背景,再將每一畫格上的像素與背景影像進行相減後得到
差異強度影像,若差異大於給定之門檻值,則視該點為移動像素或稱之為前景,
但它對不斷的明暗變化和移動的攝影機處理效果不彰。
>−
=
Otherwise
TyxByxIifyxI
yxF dkkk
k
,0
),(),(),,(
),( (2.19)
其中 ),( yxFk 代表第 k 個畫格時,前景影像 kF 上點 ),( yx 的灰階值,灰階值等
於 0 就代表該點屬於背景; kI 為第 k 個畫格的影像; kB 為第 k 的畫格時的背
景影像; dT 為差異強度門檻值。
背景影像相減法最為關鍵之地方在於一開始如何從影像片段中擷取出背
景,目前也已經有許多不同的方法被提出,最常見的有 Longa 等人[24]的採取
訓練片段進行平均之平均法以及 Lai 等人[25]的統計每個像素上灰階值出現頻
率之投票法。
2.3.2.2.時序差異法
時序相減法最大的優點是不必預先產生背景影像,其基本運作方式是將連
續影像中的前後兩個畫格直接相減後得到差異強度影像,再配合門檻值分離出
前景影像,如公式(2.20)所示:
>−
= −
Otherwise
TyxIyxIifyxI
yxF dkkk
k
,0
),(),(),,(
),( 1
(2.20)
其中 ),( yxFk 代表第 k 個畫格時,前景影像 kF 上點 ),( yx 的灰階值,灰階值
62. 48
等於 0 就代表該點屬於背景; kI 是第 k 個畫格的影像; dT 為差異強度門檻值。
由於時序相減法不需要使用到背景影像,適合在背景光影變化幅度較大的
情況下使用,但是對於偵測物體的形狀和位置也有較大的誤差。
2.3.2.3.光流法
當眼睛觀察運動物體時,物體的景像在眼睛之視網膜上形成一系列連續變
化的圖像,這一系列連續變化的資訊不斷「流過」視網膜(即圖像平面),好像
一種光的「流」,故稱之為光流。光流表達了圖像之變化,由於它包含了目標運
動的資訊,因此可被觀察者用來確定目標的運動情況。
光流法在模式識別、計算機視覺以及其他圖像處理應用中非常有用,它與
運動檢測以及運動估計緊密相關。其定義為在連續的影像平面上,各個像素之
亮度梯度。其原理是利用連續影像中各像素的亮度變化找出影像中的光流場
(Optical Flow Field),再藉光流場估計移動物體的運動向量後進行特徵匹配。
光流與影像流最大的差別在於,當物體在空間中產生位移,連續的影像平
面上會有影像流以及光流的發生。影像流是因為物體與攝影機之間的相對移動
所造成的,光流則是由於物體的相對移動或是環境的亮度梯度改變而產生。
廣義的說,光流法就是指偵測光線強弱改變之演算法,也就是以影像梯度
為匹配或追蹤基礎之演算法。最常被提及的兩種光流法,其中第一種由 Lucas,
B.D.與 Kanade, T. [26]於 1981 年所發表的方法,它以計算簡單、快速且經過多
年普遍應用,此法稱為 Lucas–Kanade Optical Flow Method,簡稱 LK 光流法。
另一種則由 Horn, B.K.P.與 Schunck, B.G.[27]於 1981 年所發表的 Horn–Schunck
Method,簡稱 HS 光流法。在 OpenCV 函數庫中,其針對 LK 光流法分別實現
了金字塔與非金字塔的 LK 稠密光流演算法;同樣的 OpenCV 亦提供 HS 光流
法之演算法函式庫。
65. 51
圖 2.43 移動車輛輪廓偵測[29]。
2.3.3.3.特徵追蹤
特徵追蹤是利用物體的特徵來進行追蹤,首先針對要追蹤的物體擷取特
徵,這些特徵可分為三種:整體性特徵(Global Feature Based),如重心、周長、
面積與顏色等;局部性特徵(Local Feature Based),如線段、曲線段與頂點等;
相依圖形特徵(Dependence Graph Based),如特徵間的結構變化等。當影像中目
標物的低階特徵擷取出後,即可匯集成更高階的特徵資訊,利用比對連續影像
間之高階特徵來追蹤該物體。
除了相依圖形特徵方法外,其餘兩種方法可以用來即時追蹤多個移動物
體,利用運動特徵、局部特徵或相依的結構特徵來解決物體交錯的問題,但是
使用運動特徵的方法穩定性不高,而使用局部特徵的方法則比較耗時費力。此
演算法的另一缺點是,用二維影像對物體的辨識度並不高,且通常無法還原出
物體的三維資訊。
若 考 慮 良 好 的 辨 識 效 果 , Lowe[31] 所 發 表 的 尺 度 不 變 特 徵 轉 換
(Scale-invariant feature transform, SIFT)是一個選擇,它在空間尺度中尋找極值
66. 52
點,並提取出其位置、尺度、旋轉不變數,可用來偵測與描述影像中的局部性
特徵且有很好的辨識效果,不過辨識時間需要比較久。
為了改善 SIFT 搜尋速度慢,Bay 等人[33]提出 SURF (Speeded-Up Robust
Features),雖然找出之特徵點不及 SIFT 演算法來的多,不過其搜尋速度卻比
SURF 快上許多,也是目前常用之搜尋特徵點演算法。除此之外,針對 SIFT 提
出 改 善 的 尚 有 Ke 等 人 [34] 所 提 出 的 PCA-SIFT(Principal Components
Analysis-SIFT)與 Morel 等人[35]提出的 Affine-SIFT (ASIFT)等方法。
在實際的應用,除了採用改良的方法來縮短辨識時間,亦可利用硬體平台
來加快演算速度,例如採用多核心之中央處理器或圖形處理器來進行運算處
理,而 SiftGPU[69]與 GPU SURF[71]則分別是透過圖形處理器來完成 SIFT 與
SURF 演算法之例子。
2.3.3.4.模型追蹤
模型追蹤的方法將會提供較精細與準確的判斷,因此需要良好的物體結構
模型,可加入物體本身之運動特性。所以,其比較不易受附近背景或其它物體
干擾之影響,也較能對抗物體間交錯問題,所以相對地運算量也比較大。通常
其追蹤的方式可分為「建立物體模型」、「建立運動模型」與「預測和搜索策略」
三個步驟。
模型追蹤的方法與前三者方法相比,有幾項優點。因為其取得之影像即為
三維資訊,故不需要額外處理才能獲得三維資訊;並且利用先前的三維資訊,
便可整合做為判斷下一個動作之根據,故縱使物體間互相交錯,也可以準確地
進行判斷;除此之外,仍可應用於物體動作變化很大之應用。
70. 56
多新的影像處理技術,並支援目前最新的影像串流技術(Video Streaming)協定,
對於影像處理研究人員來說,其採用 OpenCV 來當作基礎架構,更是引人注目。
對於研究人員來說,適合採用 Development license 的授權方式,因為此種方式
可以讓研究人員長期在上面進行研究與發展;但是對於並非要進行商業行為的
研究人員來說,此種方式可能需要較高的研究成本,但是它的 NFT(Natural
Features Tracking)擴展套件提供對自然紋理表面特徵的追蹤技術,可讓研究人
員開發出無標記之擴增實境應用。
雖然 ARToolKit NFT 套件可以發展無標記之應用,不過對於辨識之影像依
然需要傳統標記當作辨識參考,此標記之設計必須是黑色邊框搭配白色或淺色
背景,如果背景顏色並非白色或淺色,則在黑色邊框外必須額外添加白色邊框,
如圖 3.1 所示。至於辨識之影像周圍,至少提供一個標記來當作辨識參考,如
圖 3.2 所示,值得注意的是這些標記沒有受到任何特定大小之限制。
圖 3.1 ARToolKit NFT 之無標記應用範例[72]。
71. 57
圖 3.2 辨識影像放置於標記外之應用[72]。
從以上分析可以知道,雖然 ARToolKit NFT 號稱可以使用 JPEG 當作辨識
影像,不過依然需要搭配標記使用,顯然與真正無標記還有一段落差。
ARTag[78]為 Mark Fiala 修改 ARToolKit 之標記偵測模組而衍生之開發套
件,所以基本運作原理與 ARToolKit 相同;不過因為其著重在標記的辨識率及
處理上,並且採用既定的標記函式庫,所以不必與 ARToolKit 一樣,需要載入
標記文件檔,其聲稱相較於 ARToolKit,其有較高的辨識率及較短的處理時間。
雖然在標記辨識上優於 ARToolKit,然而與 ARToolKit 同樣都屬於需要特定標
記的函式庫,依然不適用於非標記的應用領域;但其建構在 OpenCV 函式庫基
礎上,所以對於只需要標記影像處理的研究人員,可以採用此開發平台搭配
OpenCV 函 式 庫 來 實 現 擴 增 實 境 的 應 用 。 除 此 之 外 , 其 支
援.wrl(VRML)、.obj(Wavefront, Maya)與.ase (3D-Studio export)這幾種三維模型
的處理,相形之下只支援.wrl 的 ARToolKit 就顯得略遜一籌。
ARToolKit Plus[79]為 ARToolKit 之延伸,除了功能性加強外,還可用在開
發行動裝置之平台上,其辨識標記原理來自於 ARTag 之靈感。
Goblin XNA[80]為架構在 ARTag 之上的開發平台,其結合了 ARTag 的辨
識技術與 XNA 的電腦圖學技術。其採用 C#當作開發平台的語言,有別於
ARToolKit 與 ARTag 等函式庫。
DART(Designer's Augmented Reality Toolkit)[81] 是由 Georgia Institute of
72. 58
Technology 的 GVU center 所開發之擴增實境應用發展工具,這套工具結合了
Macromedia 之 Director MX 與 GVU center 開發之 ARToolKit 外掛程式 Xtra。其
額外提供對視訊畫面的抓取、圖形標籤辨識、擴增三維物件與硬體周邊設備的
支援度,對於硬體設備的支援,例如抓取 GPS、6DOF 追蹤器等。DART 可以
視為 Macromedia Director 多媒體系統之擴充套件。因為 DART 是建立在
Macromedia Director 上面的擴增實境開發環境,對於熟悉 Director 操作的研究
者、設計師和藝術家,可以藉由 DART 來踏入擴增實境的領域,並迅速發展擴
增實境在媒體創作設計之相關應用。
Unifeye [82]是 Metaio 公司的商業產品,目前最新的開發界面,有支援標記
與無標記技術,如同 Goblin XNA 採用 C#當作開發平台的語言,其必須採用
Visual Studio 的開發介面來進行開發,整體設計架構採用 DirectX 的概念來進行
設計,所以整個架構可以說是建構在 Windows 環境下的開發平台。當然除了電
腦的開發平台外,最近當紅的手機平台,Metaio 一樣提供相關的開發套件,讓
擴增實境開發人員使用。
在 2.1.3.2 小節中有提到 Unifeye 應用於無標記的使用,其所能應用的領域
依然是有所限制的,並非所有的物件都可以直接當作擴增實境之道具來使用,
在 Unifeye SDK[83]中之說明範例採用圖片來當作它的辨識物件,當使用者翻到
不同頁面時,系統會偵測到這些事先定義的圖形物件,然後透過擴增實境技術
來呈現三維虛擬物件。對於擴增實境於標記上的應用來說,這種採用圖片當作
追蹤物件的方法或許已經跨出了擴增實境應用的一大步,然而對於真正無標記
的應用來說,顯然還是不夠的,因為有許多應用並不一定都能提供圖片來當作
識別之物件。
皮托科技[84]代理所代理的 Vizard[85],其使用 Python 語言來當作開發語
言,雖然採用開放的 Python 語言,然而所能開發的功能,卻侷限在的 Vizard
73. 59
所提供的能力上,儘管底層採用 ARToolKit Professional 函式庫,但很難全面發
揮該函式庫的功能,對於開發影像處理技術的研究人員來說,倒不如直接採用
ARToolKit Professional 會比較容易達成目的,如同 ARToolKit 的能力,其依然
需要透過標記來實現在擴增實境上的應用。
D’Fusion[86]為愛迪斯通科技代理 TOTAL IMMERSION 公司的擴增實境
軟體,其標榜使用無標記技術,不過必須對於辨識的物件進行辨識動作,辨識
設定完成之後,才可以進行相關的擴增實境應用。其優點為無須使用標記來進
行應用,但是依然會根據不同實體物件的特性,而有不同的辨識率。先不探討
辨識效果為何,單從其採用特殊的內部腳本語言(Scripting Language)來討論,
其並不適合影像處理研究人員進行研究使用,除了架構給侷限住之外,還必須
額外學習一種程式語言;若只是開發擴增實境的應用,或許是一個值得考慮的
方案。
將各種平台做整理,如表 3-1 所示,相信可以很清楚的感受到,目前的開
發環境依然採取標記方式居多,儘管無標記的應用需求是可想易見的,不過卻
鮮少有平台可用。對於目前這些既有的開發環境來說,它們比較適合給應用開
發的研究人員使用,像是 Vizard、D’Fusion 或 Unifeye 這種整合過的開發介面,
相信可以縮短這些開發人員的開發時程。