ABSTRACT
Thetechnique of augmented reality (AR) is to augment 3D virtual objects into
real images. Individual can interact with 3D virtual objects using tracking and
registration methods. Visual tracking is the most popular tracking approach used in
AR system, and markers are simply and generally used for identification and
tracking. Moreover, natural feature or marker-less identification and tracking is
getting more and more important and can be widely used in numerous applications.
Therefore, many natural feature extraction and object tracking schemes are
developed to efficiently identify and track natural objects. However, few of
platforms are designed to verify different tracking algorithms for AR system. In this
thesis, a novel tracking verification platform for AR environment, ARStudio, is
proposed. ARStudio is on the basis of ARToolKit, and integrates the library of
OpenCV and OpenGL. Furthermore, we modularize each component such as image
capture, image transform, visual tracking, image rendering, for the purpose of
independent usage and design. Users can select different displaying windows, and
easily demonstrate results by using drag and drop. Experimental results manifest that
ARStudio can be used for the purpose of verifying tracking schemes and AR
applications.
:
Keywords Augmented Reality, Markerless, Virtual Reality, Visual Tracking, Feature
Tracking, Natural Features.
iv
圖 2.36 針孔攝影機模型[52]。
在圖2.36中可看到兩個相似三角形,利用相似三角形原理推得:
h H H
或 h f
f D D (2.1)
其中各個參數說明如下:
(1) f 是攝影機焦距。
(2) D 是攝影機到物體的距離。
(3) H 是物體實際高度。
(4) h 是 Image plane 中物體的圖像高度。
將整個應用擴展到三維空間,並將整個光學軸(Optical Axis)往下移位,其
目的在於消除負號,讓所有的計算都在光學軸之上。在基本的針孔攝影機模型
中,將投影中心放置在歐氏座標系統(Euclidean Coordinate)的原點,並將影像平
面放置在Z 軸上距離原點為 f 的位置。在此針孔攝影機模型之下,一個在三維
空間的點 Q (X, Y, Z) T ,其投影至二維影像上的q點,其中 q ( x screen , y screen ) 。也就
是由投影中心與三維座標點Q之連線和成像平面之交點,如圖 2.37所示。
35
48.
圖 2.37 針孔攝影機模型之投影關係圖[52]。
將座標為 ( X , Y , Z ) 之物理點 Q 映射到投影平面上座標為 ( x screen , y screen ) 之點q的
過程稱為投影變換(Projective Transform),而齊次座標可把維度為n的投影空間
上的點用(n+1)維向量表示;換句話說,二維平面投影空間,可以使用一個三維
向量 q (q1 , q 2 , q 3 ) 來表示該平面的點,如公式(2.2)所示,其中λ為一比例係數,
因為投影空間上的所有比例不變,因此可以透過除以 q 3 來計算實際之像素座標
值。
xq q1
y q
q 2 (2.2)
f
q3
藉由前面所提之相似三角形的原理,可推算出三維座標點 Q (X, Y, Z) T 投影
X Y
到影像平面上之二維點 q ( f , f ) T ,故可獲得從三維空間投影至二維空間之
Z Z
映射關係。其中的投影中心又稱之為攝影機中心(Camera Center)或光學中心
(Optical Center),Z軸稱之為主軸(Principal Axis),而主軸與影像平面的交點稱之
為主點(Principal Point)。對於大部分影像呈現採用矩形而非正方形,故針對X軸
與Y軸分別定義兩個不同之焦距 f x 與 f y ,透過公式 (2.1)推得投影平面上座標:
36
49.
H X
x screen f x f x
D Z
(2.3)
H Y
y screen f y f y
D Z
然而公式(2.3)是在假設影像平面座標系統之原點是落在主點之上。不過事
實上並不完全是如此,其與主點的位置會有一位移存在,如圖 2.38所示。重新
整理如公式(2.4)所示:
X
x screen f x c x
Z
(2.4)
Y
y screen f y c y
Z
圖 2.38 影像座標系統 ( x, y ) 與攝影機座標系統 ( xcam , y cam ) 。
從公式(2.4)中可知 c x 與 c y 分別代表x與y上的偏移量,不過為了便於後續討
論,在此暫且將移位值忽略。接下來討論如何從攝影機座標系轉成影像座標系,
37
50.
f
將公式(2.2)重新定義表示成公式(2.5),其中 。
Zc
xc X c
y Y
c c (2.5)
f
Zc
將三維空間座標點與二維影像座標點均採用齊次座標系統來表示,整個三
維空間轉換二維空間的投影關係以齊次座標之線性映射(Linear Mapping)重新
表示成公式(2.6)。
X c
x c 1 0 0 0
y 0 1 0 0 Yc
c Z (2.6)
f 0 0 1 0 c
1
將攝影機座標系以 Q c 表示,而影像座標系以 qi 表示。故非齊次座標可表示
成公式(2.7),而齊次座標表示成公式(2.8),並重新整理公式(2.6)推得公式(2.9)。
Xc Yc
xi f , yi f (2.7)
Zc Zc
X
f 0 0 0 c f 0 0 0
qi 0 0 0 c 0 0 0 Q c
Y
f Z f (2.8)
0
0 1 0 c 0
1 0 1 0
38
51.
X
fXc f 0 0 0 c f 0 0 0
fY 0 0 0 c 0 0 0Qc
Y
f Z f (2.9)
c
Zc 0
0 1 0 c 0
1 0 1 0
其 中 三 維 空 間 點 表 示 為 Qc ( X c , Yc , Z c ,1) T , 二 維 影 像 點 表 示 為
q c ( fX c , fYc , Z c ) T ,而中間 3x4 的矩陣以 M diag ( f , f ,1)I | 0 來表示,並將其稱為
攝影機投影矩陣(Camera Projection Matrix),則公式(2.9)可以簡化為公式(2.10):
q c MQc (2.10)
前面為了便於討論,將位移值忽略,若重新加入位移則公式(2.9)表示成公
式(2.11)。
X
fX Zc x f 0 cx 0 c
fY Zc 0 f cy 0 c
Y
y Z (2.11)
Z 0
0 1 0 c
1
再將其中攝影機投影矩陣的部分表示成下式:
f 0 cx
K 0
f cy
(2.12)
0
0 1
則公式(2.11)式可被表示成一更簡潔的形式如(2.13)所示,其中矩陣K稱為
攝影機校正矩陣(Camera Calibration Matrix)。
39
52.
q c K I | 0Qc (2.13)
一般而言,在真實空間下的三維座標皆以世界座標系統來表示,而非以相
機座標系統(Camera Coordinate),所以在這之間還有一個座標轉換的動作,在二
個座標系統之間的關係,可用旋轉(Rotation)與位移(Translation)來轉換,如圖
2.39所示。
( R, t ) X w
Y
Qw w
Zw
1
x
q
y
圖 2.39 世界座標系統 Q w 與攝影機座標系統 Q c 之轉換圖[52]。
假設 Q 為一在世界座標系統下之三維座標點,齊次座標點以
Q w (X w , Yw , Z w ,1) T 表示;而 Q c 表示為在相機座標系統下之相對三維座標點,則
Q w 與 Q c 之關係可經由一位移矩陣T與一旋轉矩陣R來表示,其中位移向量t表示
攝影機在世界座標系統之位置,而R表示攝影機之方向,故將之表示成公式
40
53.
(2.14):
R11 R12 R13 T1 X w
R R23 T2 Yw R3 x 3 T3 x1 Rt
R22 R
Qc 21
Q w 0 T
R33 T3 Z w 01x 3 1
Qw (2.14)
R31 R32
T
1 4x4
0 0 0 1 1
並將之導入公式(2.13)式,則可得
X w
f cx
Rt Yw
0
R
q 0 cy T KRI | t Qw
1 Z w
f 0 (2.15)
0 0 1
1
公式(2.15)即為針孔攝影機模型一般的投影關係式,相機投影矩陣則為
M KRI | -t ,其自由度(Degrees Of Freedom)為 9;其中K為 3 個 ( f , c x , c y ) 、R為
3 個和t為 3 個。包含在K 矩陣之中的參數,稱之為攝影機之內部參數(Intrinsic
Parameter),而參數R和t則稱之為攝影機之外部參數(Extrinsic Parameter)。所謂
內部參數是用來定義相機座標與影像座標之關係,而外部參數則是用來定義相
機座標與世界座標之關係,可透過相機校正來獲得這些參數。
另外,在真實的感光耦合元件(Charge Coupled Devices, CCD)相機中,物理
意義上的像素在X方向與Y方向之量值不一定為 1 比 1。換句話說,如果影像上
的像素並非 1 比 1,則必須在X 與Y 方向各導入一個比例參數 (q x , q y ) 來做調
整;因此感光耦合元件相機之相機校正矩陣K 可表示成公式(2.16)。
41
54.
fx 0 cx
K 0
fy cy
(2.16)
0
0 1
其中, f x fq x , f y fq y 。另外,在感光耦合元件相機中,在物理意義上的
像素也不一定是矩形,而 X 軸與 Y 軸有一歪斜的參數 s ,最後將整個完整的
感光耦合元件相機校正矩陣表示為:
fx s cx
K 0
fy cy
(2.17)
0
0 1
因此整個呈現過程是經過多重的座標系統轉換,若不考慮過多的參數,則
針孔攝影機模型之投影可用公式(2.18)表示 對於整個攝影機之參數矩陣計算採
。
用Heikkila和Silven[22]的方法,這也是OpenCV內部所採用之方法。
1 0 0 0
R Rt
q K 0 1 0 0 T Qw K R | Rt Qw MQw
1
0 (2.18)
0 0 1 0
重新整理各個參數說明如下:
(1) 二維影像上的 q 點。
(2) 三維座標點 Q。
(3) 三維齊次座標點 Qw。
(4) 三維攝影機座標點 Qc。
(5) M 稱為攝影機投影矩陣。
(6) K 稱為攝影機校正矩陣。
42
型。然後,使用目前的圖像中減去背景圖片來偵測移動像素。其中影像片段中
固定不變的部份視作背景,再將每一畫格上的像素與背景影像進行相減後得到
差異強度影像,若差異大於給定之門檻值,則視該點為移動像素或稱之為前景,
但它對不斷的明暗變化和移動的攝影機處理效果不彰。
I ( x, y ), if I k ( x, y ) Bk ( x, y ) Td
Fk ( x, y ) k (2.19)
0, Otherwise
其中 Fk ( x, y ) 代表第 k 個畫格時,前景影像 Fk 上點 ( x, y) 的灰階值,灰階值等
於 0 就代表該點屬於背景; I k 為第 k 個畫格的影像; Bk 為第 k 的畫格時的背
景影像; Td 為差異強度門檻值。
背景影像相減法最為關鍵之地方在於一開始如何從影像片段中擷取出背
景,目前也已經有許多不同的方法被提出,最常見的有Longa等人[24]的採取訓
練片段進行平均之平均法以及Lai等人[25]的統計每個像素上灰階值出現頻率之
投票法。
2.3.2.2. 時序差異法
時序相減法最大的優點是不必預先產生背景影像,其基本運作方式是將連
續影像中的前後兩個畫格直接相減後得到差異強度影像,再配合門檻值分離出
前景影像,如公式(2.20)所示:
I ( x, y ), if I k ( x, y ) I k 1 ( x, y ) Td
Fk ( x, y ) k (2.20)
0, Otherwise
其中 Fk ( x, y ) 代表第 k 個畫格時,前景影像 Fk 上點 ( x, y ) 的灰階值,灰階值
47
表 3-1 擴增實境現有技術整理。
無標記
名稱 標記 語言
圖片 實體物件
ARToolkit C
ARToolKit Professional C
ARTag C
ARToolKit Plus C
Goblin XNA C#
DART Director
Unifeye C#
Vizard Python
D’Fusion Script
當然除了本文整理的擴增實境套件外,還有開發套件未被提及,因為擴增
實境的開發套件真的不勝枚舉,尤其擴增實境技術正如火如荼的在各個領域中
擴展開來;不過如同前面所提,這些技術的開發目的不是針對影像研究人員,
而是針對終端使用者而設計,故影像研究人員很難從既有套件中直接套用自行
發展之視覺追蹤模組。
3.2. 採用套件分析
本文所要研究之無標記擴增實境,在既有之平台中雖然有支援無標記應用
平台,然而並非支援無標記追蹤之研究而開發,故不管選用哪一套開發環境,
依然需要著手處理無標記開發設計部分,故本文預計採用 ARToolKit 之函式庫
當作開發基礎平台,再搭配影像相關函式庫來驗證本文之理論,在這一節則針
對所需平台做一簡單之介紹。
60
73.
3.2.1. ARtoolKit
ARToolKit 是計算機視覺追蹤函式庫,允許建立擴增實境應用程序將虛擬
影像疊加在真實世界中。要做到這一點,利用視訊追蹤能力,並即時計算標記
相對於攝像機之位置和方向。找到相關位置後,利用 OpenGL(Open Graphic
Library)繪製三維虛擬物件並準確地疊加在標記之上。所以針對擴增實境之標記
應用,ARToolKit 解決了「標記追蹤」與「虛擬物件互動」這兩個關鍵技術。
ARToolKit的最初是由奈良科學技術研究所(Nara Institute of Science and
Technology)的Kato等人[7]於 1999 年所開發,並且被公佈在華盛頓大學的HIT
實驗室(University of Washington HIT Lab) 目前可以從SourceForge[73]取得這個
。
套件開放原始碼,至於更完善之商業版本則可從ARToolWorks[77]中取得相關資
訊。
ARToolKit是一套跨平台的函式庫 在不同平台之硬體處理部分可能略有不
,
同,而本文將在Windows環境上實作,故只針對ARToolKit在Windows上之架構
做一討論,如圖 3.3為ARToolKit運作架構圖,其透過DSVL(Direct Show Video
Library)函式庫來取得攝影機之影像,及透過載入VMRL格式之三維物件模型,
最後利用OpenGL進行三維繪製作業,當然ARToolKit的核心程式部分包含了標
記之視訊追蹤與物件之定位,至於詳細運作則不在此介紹。
61
參考文獻
[1] Sutherland, I.E., “The Ultimate Display,” Proceedings of IFIP Congress, pp.
506-508, 1965.
[2] Sutherland, I. E., “A Head-Mounted Three Dimensional Display,” Proceedings of
the AFIPS Fall Joint Computer Conference, pp. 757-764, 1968.
[3] Dixon, S., “A History of Virtual Reality in Performance,” International Journal
of Performance Arts and Digital Media, Vol. 2 No. 1, pp. 23-54, 2006.
[4] Haller, M., Billinghurst, M., and Thomas, B., “Emerging Technologies of
Augmented Reality Interfaces and Design,” Idea Group Publishing, USA,
Chap.13, pp. 262, 2006.
[5] Milgram, P., Takemura, H., Utsumi, A. and Kishino, F., “Augmented Reality: A
Class of Displays on the Reality-Virtuality Continuum,” Telemanipulator and
Telepresence Technologies, SPIE Proceedings Vol. 2351, pp. 282-292,
November, 1994.
[6] Azuma, R., “A Survey of Augmented Reality,” Presence: Teleoperators and
Virtual Environments, Vol. 6, No. 4, pp. 355-385, August 1997.
[7] Kato, H. and Billinghurst, M., “Marker Tracking and HMD Calibration for a
Video-Based Augmented Reality Conferencing System,” in IWAR ’99:
Proceedings of the 2nd, IEEE and ACM International Workshop on Augmented
Reality, pp. 85-94, IEEE Computer Society, 1999.
[8] Kan, T. W., Teng C.H. and Chou, W. S., “Applying QR Code in Augmented
Reality Applications,” International Conference on Virtual Reality Continuum
and Its Applications in Industry, Yokohama, Japan, pp. 253-257, December,
2009.
[9] Gordon, I. and Lowe, D. G., “Scene Modeling, Recognition and Tracking with
Invariant Image Features,” International Symposium on Mixed and Augmented
4
87.
Reality (ISMAR), Arlington,VA, pp. 110-119, 2004.
[10] Gordon, I. and Lowe, D. G., “What and Where: 3D Object Recognition with
Accurate Pose,” Toward Category-Level Object Recognition, Springer-Verlag,
pp. 67-82, 2006.
[11] Yuana, M.L., Ongb, S.K., Nee, A.Y.C., “A Generalized Registration Method for
Augmented Reality Systems,” Computers & Graphics Vol. 29, Issue 6, pp.
980-997, December, 2005.
[12] Vallino, J. R., “Interactive Augmented Reality”, PhD Thesis, Department of
Computer Science, University of Rochester, New York, The USA, 1998.
[13] Billinghurst, M., Kato, H. and Poupyrev, I., “The MagicBook: A Transitional
AR Interface,” Computers & Graphics, Vol. 25, Issue 5, pp. 745-753, 2001.
[14] Bötschi, K., Voegtli, B., Juchli, P., Fjeld, M., Fredriksson, J., Ejdestig, M. and
Duca, F., “Tangible User Interface for Chemistry Education: Comparative
Evaluation and Re-Design,” in CHI ’07: Proceedings of the SIGCHI conference
on Human factors in computing systems, pp. 805-808, May, 2007.
[15] Shelton, B. E. and Hedley, N. R., “Using Augmented Reality for Teaching
Earth-Sun Relationships to Undergraduate Geography Students,” First IEEE
International Augmented Reality Toolkit Workshop, Darmstadt, Germany,
September, 2002.
[16] Shelton, B. E., “How Augmented Reality Helps Students Learn Dynamic
Spatial Relationships,” Ph.D. Dissertation, College of Education, University of
Washington, 2003.
[17] Samset, E., Schmalstieg, D., Sloten, J. V., Freudenthal, A., Declerck, J.,
Casciaro, S., Rideng, Ø., Gersak, B., “Augmented Reality in Surgical
Procedures,” Proceedings of SPIE Medical Imaging, Vol. 6806, Issue 1, pp.
68060K-68060K-12, February, 2008.
[18] Fischer, J., Neff, M., Freudenstein D. and Bartz1, D., “Medical Augmented
Reality Based on Commercial Image Guided Surgery,” Eurographics
5
88.
Symposium on VirtualEnvironments, pp. 83-86, 2004.
[19] Henderson, S., and Feiner, S., “Evaluating the Benefits of Augmented Reality
for Task Localization in Maintenance of an Armored Personnel Carrier Turret,”
Proceeding of IEEE International Symposium on Mixed and Augmented
Reality, pp. 135-144, October 2009.
[20] Vlahakis, V., KARigiannis, J., Tsotros, M., GounARis, M., Almeida, L.,
Stricker, D., Gleue, T., Christou, I.T., CARlucci, R., Ioannidis, N.,
“ARcheoguide: First Results of an Augmented Reality, Mobile Computing
System in Cultural Heritage Sites,” ACM International Conference on Virtual
Reality, ARcheology, and Cultural Heritage, pp.131-140, 2001.
[21] Huang, C. R., “The Vision-Base Interaction on Augmented Exhibition
Environments,” Ph.D. Dissertation, Department of Electrical Engineering,
National Cheng Kung University Tainan, Taiwan, R.O.C., June, 2005.
[22] Heikkila, J. and Silven, O., “A Four-Step Camera Calibration Procedure with
Implicit Image Correction,” In Proc. of IEEE Computer Vision and Pattern
Recognition, pp. 1106-1112, 1997.
[23] Hu, W., Tan, T., Wang, L. and Maybank, S., “A Survey on Visual Surveillance
of Object Motion and Behaviors,” IEEE Transactions on Systems, Man and
Cybernetics, Part C: Applications and Reviews, Vol. 34, pp. 334-352, 2004.
[24] Longa, W. and Yang, Y. H., “Stationary Background Generation: An Alternative
to the Difference of Two Images,” Vol. 23, No. 12, pp. 1351-1359, 1990.
[25] Lai, Andrew H. S. and Yung, Nelson H. C., “A Fast and Accurate Scoreboard
Algorithm for Estimating Stationary Background in an Image Sequence,” Proc.
of IEEE Int’l Symp. on Circuits and Systems, Vol. 4, 241-244, 1998.
[26] Lucas, B. D. and Kanade, T., “An Iterative Image Registration Technique with
an Application to Stereo Vision,” Proceedings of Imaging Understanding
Workshop, pp. 121-130, 1981.
[27] Horn, B.K.P. and Schunck, B.G., “Determining Optical Flow,” Artificial
6
89.
Intelligence, Vol. 17,pp. 185-203, 1981.
[28] Zang, Q. and Klette, R., “Object Classification and Tracking in Video
Surveillance,” Computer Analysis of Images and Patterns, Vol. 2756, pp.
198-205, August, 2003.
[29] Paragios N.and Deriche, R., “Geodesic Active Contours and Level Sets for the
Detection and Tracking of Moving Objects,” IEEE Trans. Pattern Anal.
Machine Intell. , Vol. 22, pp. 266-280, 2000.
[30] Lowe, D. G., “Object Recognition from Local Scale-Invariant Features,”
International Conference of Computer Vision, Vol. 60, pp. 1150-1157, 1999.
[31] Lowe, D. G., “Distinctive Image Features from Scale-Invariant Keypoints,”
International Journal of Computer Vision, pp. 91-110, 2004.
[32] Bay, H., Tuytelaars, T., Van Gool, L., “SURF: Speeded Up Robust Features,” In:
ECCV, Vol. 3951, Issue 2, pp. 404-417, July, 2006.
[33] Bay, H., Ess, A., Tuytelaars, T. and Van Gool, L., “Speeded-Up Robust Features
(SURF),” Computer Vision and Image Understanding 110, pp. 346-359, 2008.
[34] Ke, Y. and Sukthankar, R., “PCA-SIFT: A More Distinctive Representation for
Local Image Descriptors,” Computer Vision and Pattern Recognition, Vol. 2, pp.
506-513, 2004.
[35] Morel, J.M. and Yu, G., “ASIFT: A New Framework for Fully Affine Invariant
Image Comparison,” SIAM Journal on Imaging Sciences, Vol. 2, Issue 2, pp.
438-469, 2009.
[36] Tanizaki, H., “Non-Gaussian State-Space Modeling of Nonstationary Time
Series,” J. Amer. Statist. Assoc.82, pp. 1032-1063, 1987.
[37] Guan, T. and Duan, L., “Recovering Pose and Occlusion Consistencies in
Augmented Reality Systems Using Affine Properties,” Sensor Review, Vol. 30
Issue 2, pp. 148-158, 2010.
[38] Zheng, Z., “Gesture Interface for 3D Scene Based on CAMSHIFT Fingertip
Tracking,” Department of Computer Science, University of Stony Brook, New
7
90.
York.
[39] McKenna, S.,Jabri, S., Duric, Z., Rosenfeld A. and Wechsler, H., “Tracking
Groups of People,” Computer Vision and Image Understanding, Vol. 80, pp.
42-56, 2000.
[40] Masoud O. and Papanikolopoulos, N. P., “A Novel Method for Tracking and
Counting Pedestrians in Real-Time Using a Single Camera,” IEEE Trans.
Vehicular Tech., Vol. 50, No. 5, pp. 1267-1278, 2001.
[41] Nilsen, T., Looser, J., “Tankwar: Tabletop War Gaming in Augmented Reality,”
In Proceedings of the 2nd International Workshop on Pervasive Gaming
Applications (PerGames), 2005.
[42] Saenz, A., “Augmented Reality to Help Military Mechanics Fix Vehicles
(Video),” Singularity Hub, January, 2010.
[43] Molla, E. and Lepetit, V., “Augmented Reality for Board Games,” In
Proceedings of the International Symposium on Mixed and Augmented Reality,
pp. 253-254, 2010.
[44] Kakuta, T., Oishi, T. and Ikeuchi, K., “Virtual Asukakyo: A Restoration of an
Archeological Site with Mixed Reality Technology and Expansion into a Tour
Guide System,” Computer Vision Laboratory, University of Tokyo, pp. 172-175,
Jun, 2007.
[45] Bonanni, L., Lee, C. H. and Selker, T., “Attention-Based Design of Augmented
Reality Interfaces,” CHI '05 Extended Abstracts on Human Factors in
Computing Systems, April 02-07, 2005, Portland, OR, USA, pp. 1228-1231,
2005.
[46] Lee, C. H. J., Bonanni, L., Espinosa, J. H., Lieberman, H. and Selker, T.,
“Augmenting Kitchen Appliances with a Shared Context using Knowledge
about Daily Events,” Proceedings of the 11th International Conference on
Intelligent User Interfaces, pp. 348-350, 2006.
[47] 呂其展,“運用影像序列建構與顯示三維地形模型之研究",國立成功大
8
91.
學資訊工程學系碩士論文,台南,第 9-16 頁,2002。
[48]王燕超,“從擴增實境觀點論數位學習之創新",國立臺灣師範大學圖文
傳播學系,台北,2006。
[49] 李洢杰,“應用光流原理進行近景視訊影像同名點雲自動化追蹤與量
測", 國立成功大學測量工程學系碩士論文,台南,第 4-5 頁,2003。
[50] 賴丙全,“利用多攝影機進行移動物三維定位及追蹤", 國立中央大學
土木工程研究所碩士論文,台南,第 3-6 頁,2007。
[51] Bimber, O. and Raskar, R., “Spatial Augmented Reality: Merging Real and
Virtual Worlds,” A. K. Peters, Ltd., Wellesley, MA, USA, Chap.1, pp. 1-7, July,
2005.
[52] Bradski, G., Kaehler, A., “Learning OpenCV,” O'Reilly Media, September
2008.
[53] Shreiner, D. and The Khronos OpenGL ARB Working Group, “OpenGL
Programming Guide,” Addison-Wesley Professional, USA, 2009.
[54] Francis S Hill Jr., Stephen M Kelley (Author) “Computer Graphics Using
OpenGL (3rd Edition),” Prentice Hall, USA, Chap.7, 2006.
[55] 徐明亮,盧紅星,王琬,“OpenGL 遊戲編程",機械工業出版社,中國,
第 7-22 頁,2008。
[56] 項志鋼,“Computer Graphics with OpenGL",清華大學出版社,中國,
第 70-79 頁,2007。
[57] Denso-Ware, http://www.denso-wave.com/
[58] QR Code.com, http://www.denso-wave.com/qrcode/index-e.html
[59] QR-Code Generator, http://qrcode.kaywa.com/
[60] Lumus, http://www.lumus-optical.com/
[61] Star Wars, http://www.starwars.com/
[62] Transpost, http://www.hitachi.co.jp/New/cnews/month/2007/08/0806.html
9