Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
TY
Uploaded by
Takashi Yoshinaga
35,984 views
はじめようARCore:自己位置推定・平面検出・FaceTracking
UnityやARCore初心者向けのチュートリアル資料。 ※3/9に開催したハンズオン資料の修正版です
Technology
◦
Related topics:
Insights on Augmented Reality
•
Read more
11
Save
Share
Embed
Embed presentation
1
/ 136
2
/ 136
3
/ 136
4
/ 136
5
/ 136
6
/ 136
7
/ 136
8
/ 136
9
/ 136
Most read
10
/ 136
11
/ 136
12
/ 136
13
/ 136
14
/ 136
15
/ 136
16
/ 136
17
/ 136
18
/ 136
19
/ 136
20
/ 136
21
/ 136
22
/ 136
23
/ 136
24
/ 136
25
/ 136
26
/ 136
27
/ 136
28
/ 136
29
/ 136
30
/ 136
31
/ 136
32
/ 136
33
/ 136
34
/ 136
Most read
35
/ 136
36
/ 136
37
/ 136
38
/ 136
39
/ 136
40
/ 136
41
/ 136
42
/ 136
43
/ 136
44
/ 136
45
/ 136
46
/ 136
47
/ 136
48
/ 136
49
/ 136
Most read
50
/ 136
51
/ 136
52
/ 136
53
/ 136
54
/ 136
55
/ 136
56
/ 136
57
/ 136
58
/ 136
59
/ 136
60
/ 136
61
/ 136
62
/ 136
63
/ 136
64
/ 136
65
/ 136
66
/ 136
67
/ 136
68
/ 136
69
/ 136
70
/ 136
71
/ 136
72
/ 136
73
/ 136
74
/ 136
75
/ 136
76
/ 136
77
/ 136
78
/ 136
79
/ 136
80
/ 136
81
/ 136
82
/ 136
83
/ 136
84
/ 136
85
/ 136
86
/ 136
87
/ 136
88
/ 136
89
/ 136
90
/ 136
91
/ 136
92
/ 136
93
/ 136
94
/ 136
95
/ 136
96
/ 136
97
/ 136
98
/ 136
99
/ 136
100
/ 136
101
/ 136
102
/ 136
103
/ 136
104
/ 136
105
/ 136
106
/ 136
107
/ 136
108
/ 136
109
/ 136
110
/ 136
111
/ 136
112
/ 136
113
/ 136
114
/ 136
115
/ 136
116
/ 136
117
/ 136
118
/ 136
119
/ 136
120
/ 136
121
/ 136
122
/ 136
123
/ 136
124
/ 136
125
/ 136
126
/ 136
127
/ 136
128
/ 136
129
/ 136
130
/ 136
131
/ 136
132
/ 136
133
/ 136
134
/ 136
135
/ 136
136
/ 136
More Related Content
PPTX
Nreal Lightハンズオン
by
Takashi Yoshinaga
PDF
CEDEC 2020 - 高品質かつ低負荷な3Dライブを実現するシェーダー開発 ~『ラブライブ!スクールアイドルフェスティバル ALL STARS』(スク...
by
KLab Inc. / Tech
PDF
UE4で作成するUIと最適化手法
by
エピック・ゲームズ・ジャパン Epic Games Japan
PPTX
猫でも分かるUE4を使ったARコンテンツ作り方 初級編 ver 1.0.0
by
エピック・ゲームズ・ジャパン Epic Games Japan
PPTX
【CEDEC2018】一歩先のUnityでのパフォーマンス/メモリ計測、デバッグ術
by
Unity Technologies Japan K.K.
PDF
VRM 標準シェーダ MToon の使い方
by
VirtualCast, Inc.
PDF
5分でわかる Unity点群
by
UnityTechnologiesJapan002
PDF
CEDEC2015「加算合成コストが0になる!?すぐに使えるP-MAPブレンドテクニック」発表スライド
by
Toshiyasu Miyabe
Nreal Lightハンズオン
by
Takashi Yoshinaga
CEDEC 2020 - 高品質かつ低負荷な3Dライブを実現するシェーダー開発 ~『ラブライブ!スクールアイドルフェスティバル ALL STARS』(スク...
by
KLab Inc. / Tech
UE4で作成するUIと最適化手法
by
エピック・ゲームズ・ジャパン Epic Games Japan
猫でも分かるUE4を使ったARコンテンツ作り方 初級編 ver 1.0.0
by
エピック・ゲームズ・ジャパン Epic Games Japan
【CEDEC2018】一歩先のUnityでのパフォーマンス/メモリ計測、デバッグ術
by
Unity Technologies Japan K.K.
VRM 標準シェーダ MToon の使い方
by
VirtualCast, Inc.
5分でわかる Unity点群
by
UnityTechnologiesJapan002
CEDEC2015「加算合成コストが0になる!?すぐに使えるP-MAPブレンドテクニック」発表スライド
by
Toshiyasu Miyabe
What's hot
PDF
シェーダーを活用した3Dライブ演出のアップデート ~『ラブライブ!スクールアイドルフェスティバル ALL STARS』(スクスタ)の開発事例~
by
KLab Inc. / Tech
PPTX
HoloLens2とMeta QuestではじめるWebXR
by
Takashi Yoshinaga
PDF
【Unity】Scriptable object 入門と活用例
by
Unity Technologies Japan K.K.
PDF
C# ゲームプログラミングはホントにメモリのことに無頓着でいいの?
by
京大 マイコンクラブ
PDF
【Unity道場】新しいPrefabワークフロー入門
by
Unity Technologies Japan K.K.
PDF
UE4.25 Update - Unreal Insights -
by
エピック・ゲームズ・ジャパン Epic Games Japan
PDF
60fpsアクションを実現する秘訣を伝授 基礎編
by
エピック・ゲームズ・ジャパン Epic Games Japan
PPTX
MRTKをNreal Lightに対応させてみた
by
Takashi Yoshinaga
PDF
オンラインゲームの仕組みと工夫
by
Yuta Imai
PDF
UE4 Performance and Profiling | Unreal Dev Day Montreal 2017 (日本語訳)
by
エピック・ゲームズ・ジャパン Epic Games Japan
PDF
継承やめろマジやめろ。 なぜイケないのか 解説する
by
TaishiYamada1
PDF
UE4を使った映像制作 (UE4 Character Art Dive Online)
by
エピック・ゲームズ・ジャパン Epic Games Japan
PDF
バイキング流UE4活用術 ~BPとお別れするまでの18ヶ月~
by
エピック・ゲームズ・ジャパン Epic Games Japan
PPTX
[CEDEC2018] UE4で多数のキャラクターを生かすためのテクニック
by
エピック・ゲームズ・ジャパン Epic Games Japan
PDF
そう、UE4ならね。あなたのモバイルゲームをより快適にする沢山の冴えたやり方について Part 2 <Texture Streaming, メモリプロ...
by
エピック・ゲームズ・ジャパン Epic Games Japan
PDF
ピクサー USD 入門 新たなコンテンツパイプラインを構築する
by
Takahito Tejima
PDF
【Unite Tokyo 2019】3Dアバターファイルフォーマット「VRM」詳説
by
UnityTechnologiesJapan002
PDF
5分でわかる Sensor SDK
by
UnityTechnologiesJapan002
PDF
Cinemachineで見下ろし視点のカメラを作る
by
Unity Technologies Japan K.K.
PDF
【Unite Tokyo 2019】Unityとプロシージャルで作るオープンワールド背景
by
UnityTechnologiesJapan002
シェーダーを活用した3Dライブ演出のアップデート ~『ラブライブ!スクールアイドルフェスティバル ALL STARS』(スクスタ)の開発事例~
by
KLab Inc. / Tech
HoloLens2とMeta QuestではじめるWebXR
by
Takashi Yoshinaga
【Unity】Scriptable object 入門と活用例
by
Unity Technologies Japan K.K.
C# ゲームプログラミングはホントにメモリのことに無頓着でいいの?
by
京大 マイコンクラブ
【Unity道場】新しいPrefabワークフロー入門
by
Unity Technologies Japan K.K.
UE4.25 Update - Unreal Insights -
by
エピック・ゲームズ・ジャパン Epic Games Japan
60fpsアクションを実現する秘訣を伝授 基礎編
by
エピック・ゲームズ・ジャパン Epic Games Japan
MRTKをNreal Lightに対応させてみた
by
Takashi Yoshinaga
オンラインゲームの仕組みと工夫
by
Yuta Imai
UE4 Performance and Profiling | Unreal Dev Day Montreal 2017 (日本語訳)
by
エピック・ゲームズ・ジャパン Epic Games Japan
継承やめろマジやめろ。 なぜイケないのか 解説する
by
TaishiYamada1
UE4を使った映像制作 (UE4 Character Art Dive Online)
by
エピック・ゲームズ・ジャパン Epic Games Japan
バイキング流UE4活用術 ~BPとお別れするまでの18ヶ月~
by
エピック・ゲームズ・ジャパン Epic Games Japan
[CEDEC2018] UE4で多数のキャラクターを生かすためのテクニック
by
エピック・ゲームズ・ジャパン Epic Games Japan
そう、UE4ならね。あなたのモバイルゲームをより快適にする沢山の冴えたやり方について Part 2 <Texture Streaming, メモリプロ...
by
エピック・ゲームズ・ジャパン Epic Games Japan
ピクサー USD 入門 新たなコンテンツパイプラインを構築する
by
Takahito Tejima
【Unite Tokyo 2019】3Dアバターファイルフォーマット「VRM」詳説
by
UnityTechnologiesJapan002
5分でわかる Sensor SDK
by
UnityTechnologiesJapan002
Cinemachineで見下ろし視点のカメラを作る
by
Unity Technologies Japan K.K.
【Unite Tokyo 2019】Unityとプロシージャルで作るオープンワールド背景
by
UnityTechnologiesJapan002
Similar to はじめようARCore:自己位置推定・平面検出・FaceTracking
PDF
はじめようARCore: Motion Tracking & Image Tracking編
by
Takashi Yoshinaga
PDF
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
by
Takashi Yoshinaga
PDF
OpenCV/ARCore/Unityで作る塗り絵AR
by
Takashi Yoshinaga
PDF
UnityとVuforiaで始めるAR開発
by
Takashi Yoshinaga
PDF
はじめようArcore (修正版)
by
Takashi Yoshinaga
PPTX
OpenCVでつくろうARスタンプアプリ in 熊本
by
Takashi Yoshinaga
PDF
OpenCVとARCoreで作るスタンプAR in 宮崎
by
Takashi Yoshinaga
PDF
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
by
Takashi Yoshinaga
PDF
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
by
Takashi Yoshinaga
PDF
Flashup13 Basic Training of Flare3D
by
Katsushi Suzuki
PDF
ARコンテンツ作成勉強会:使ってみようSmartAR 基礎から支援ツール活用まで
by
Takashi Yoshinaga
PPTX
Introduction to AR Foundation
by
Hirokazu Egashira
PDF
はじめようARCore in 札幌
by
Takashi Yoshinaga
PDF
ノンプログラミングで始める AR 開発入門
by
Takashi Yoshinaga
PDF
はじめようARCore
by
Takashi Yoshinaga
PDF
HoloLensハンズオン:AirTap & SpatialMapping編
by
Takashi Yoshinaga
PDF
Trend and use case 20120607a with Ar (Augmented reality) -Ar(拡張現実) の動向と活用事例
by
Etsuji Kameyama
PDF
Unityとスマートフォンアプリの最適化
by
COLOPL, Inc.
PDF
20120623 cv勉強会 shirasy
by
Yoichi Shirasawa
PDF
週末プログラミングで作るカジュアルゲーム~シューティング編~
by
Nohina Hidenari
はじめようARCore: Motion Tracking & Image Tracking編
by
Takashi Yoshinaga
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
by
Takashi Yoshinaga
OpenCV/ARCore/Unityで作る塗り絵AR
by
Takashi Yoshinaga
UnityとVuforiaで始めるAR開発
by
Takashi Yoshinaga
はじめようArcore (修正版)
by
Takashi Yoshinaga
OpenCVでつくろうARスタンプアプリ in 熊本
by
Takashi Yoshinaga
OpenCVとARCoreで作るスタンプAR in 宮崎
by
Takashi Yoshinaga
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
by
Takashi Yoshinaga
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
by
Takashi Yoshinaga
Flashup13 Basic Training of Flare3D
by
Katsushi Suzuki
ARコンテンツ作成勉強会:使ってみようSmartAR 基礎から支援ツール活用まで
by
Takashi Yoshinaga
Introduction to AR Foundation
by
Hirokazu Egashira
はじめようARCore in 札幌
by
Takashi Yoshinaga
ノンプログラミングで始める AR 開発入門
by
Takashi Yoshinaga
はじめようARCore
by
Takashi Yoshinaga
HoloLensハンズオン:AirTap & SpatialMapping編
by
Takashi Yoshinaga
Trend and use case 20120607a with Ar (Augmented reality) -Ar(拡張現実) の動向と活用事例
by
Etsuji Kameyama
Unityとスマートフォンアプリの最適化
by
COLOPL, Inc.
20120623 cv勉強会 shirasy
by
Yoichi Shirasawa
週末プログラミングで作るカジュアルゲーム~シューティング編~
by
Nohina Hidenari
More from Takashi Yoshinaga
PPTX
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
by
Takashi Yoshinaga
PPTX
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
by
Takashi Yoshinaga
PPTX
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
by
Takashi Yoshinaga
PPTX
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
by
Takashi Yoshinaga
PPTX
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
by
Takashi Yoshinaga
PPTX
AR-Frame x AR.js入門
by
Takashi Yoshinaga
PPTX
【準備編】OculusQuest/HoloLens2対応WebXR開発
by
Takashi Yoshinaga
PPTX
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
by
Takashi Yoshinaga
PPTX
Voxon Photonics VX1で遊んでみた
by
Takashi Yoshinaga
PPTX
iPad LiDARでエンジニアカフェを3Dスキャン
by
Takashi Yoshinaga
PPTX
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
by
Takashi Yoshinaga
PPTX
Project HoloBox
by
Takashi Yoshinaga
PPTX
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
by
Takashi Yoshinaga
PPTX
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
by
Takashi Yoshinaga
PPTX
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
by
Takashi Yoshinaga
PPTX
コロナ禍中のコミュニティ活動
by
Takashi Yoshinaga
PPTX
AR Fukuoka紹介2020
by
Takashi Yoshinaga
PPTX
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
by
Takashi Yoshinaga
PPTX
Web技術ではじめようAR/VRアプリ開発
by
Takashi Yoshinaga
PPTX
OSC2020 Fukuoka: インストールいらず、WebAR入門
by
Takashi Yoshinaga
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
by
Takashi Yoshinaga
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
by
Takashi Yoshinaga
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
by
Takashi Yoshinaga
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
by
Takashi Yoshinaga
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
by
Takashi Yoshinaga
AR-Frame x AR.js入門
by
Takashi Yoshinaga
【準備編】OculusQuest/HoloLens2対応WebXR開発
by
Takashi Yoshinaga
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
by
Takashi Yoshinaga
Voxon Photonics VX1で遊んでみた
by
Takashi Yoshinaga
iPad LiDARでエンジニアカフェを3Dスキャン
by
Takashi Yoshinaga
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
by
Takashi Yoshinaga
Project HoloBox
by
Takashi Yoshinaga
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
by
Takashi Yoshinaga
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
by
Takashi Yoshinaga
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
by
Takashi Yoshinaga
コロナ禍中のコミュニティ活動
by
Takashi Yoshinaga
AR Fukuoka紹介2020
by
Takashi Yoshinaga
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
by
Takashi Yoshinaga
Web技術ではじめようAR/VRアプリ開発
by
Takashi Yoshinaga
OSC2020 Fukuoka: インストールいらず、WebAR入門
by
Takashi Yoshinaga
Recently uploaded
PDF
さくらインターネットの今 法林リージョン:さくらのAIとか GPUとかイベントとか 〜2026年もバク進します!〜
by
法林浩之
PDF
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
PDF
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
PDF
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
PDF
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
PDF
Drupal Recipes 解説 .
by
iPride Co., Ltd.
PPTX
ddevについて .
by
iPride Co., Ltd.
さくらインターネットの今 法林リージョン:さくらのAIとか GPUとかイベントとか 〜2026年もバク進します!〜
by
法林浩之
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
Drupal Recipes 解説 .
by
iPride Co., Ltd.
ddevについて .
by
iPride Co., Ltd.
はじめようARCore:自己位置推定・平面検出・FaceTracking
1.
ARコンテンツ作成勉強会 はじめようARCore
2.
自己紹介 氏名:吉永崇(Takashi Yoshinaga) 所属:九州先端科学技術研究所(ISIT) 専門:ARを用いた医療支援や運動計測 コミュニティ:ARコンテンツ作成勉強会 主催
3.
ARコンテンツ作成勉強会の紹介 2013年5月に勉強会をスタートし、100回以上開催 ARコンテンツの作り方をハンズオン形式で学ぶ
人数は5~10名程度の少人数で実施 参加条件はAR/VRに興味がある人(知識不要) 各地で開催 (福岡、熊本、宮崎、長崎、大分、 鹿児島、山口、広島、関東)
4.
Twitterと勉強会ページで情報を発信しています #AR_Fukuoka Googleで「AR勉強会」で検索
5.
ARCore Googleが提供する次世代ARプラットフォーム。普通のスマホでマーカーレスARを実現。 【主要機能】 (1) 自己位置推定 (Motion
Tracking) (2) 平面認識 (Environmental Understanding) (3) 明るさ推定 (Light Estimation) (4) マーカー認識 (Augmented Image) (5) 空間共有 (Cloud Anchor) (6) 顔認識 (Augmented Faces) ← New!
6.
今日の内容 (1/2) Googleが提供する次世代ARプラットフォーム。普通のスマホでマーカーレスARを実現。 【主要機能】 (1) 自己位置推定
(Motion Tracking) (2) 平面認識 (Environmental Understanding) (3) 明るさ推定 (Light Estimation) (4) マーカー認識 (Augmented Image) (5) 空間共有 (Cloud Anchor) (6) 顔認識 (Augmented Faces) ← New!
7.
マーカー認識や空間共有についてはこちらをどうぞ https://www.slideshare.net/ssuserc0d7f b/arcore-108717431
8.
事前準備 • Unity2017.4.15 or
later • ARCore SDK 1.7 https://github.com/google-ar/arcore- unity-sdk/releases/tag/v1.7.0 • Sample http://arfukuoka.lolipop.jp/arcore_pan asonic/sample.zip
9.
今日の内容 (2/2) ① CGを表示
② 平面検出とCGの配置 ③ 空間にドローイング ④ 顔認識
10.
開発ツール:Unity Unityとは マルチプラットフォーム対応のゲームエンジンおよび開発環境 GUI上で視覚的にCGを配置したり機能を追加したりできる
C#によるプログラミングで細かい挙動も記述可能 アセットストアで高品質なCGやアニメーションを入手できる
11.
Unityのプロジェクトを作成 (1/2) Unityを起動後、画面右上のNEWをクリック New
12.
Unityのプロジェクトを作成 (2/2) プロジェクト名・保存場所・3Dを指定してCreate project 3D 最後にクリック プロジェクト名 保存場所
13.
まずはUnityの簡単な使い方
14.
Unityの操作画面(概要) ゲーム空間の設計画面
15.
ゲーム空間にCGを追加しよう 右クリック 3DObject → Cube
16.
実行してみよう クリックして実行 クリックして終了 カメラから見た空間
17.
オブジェクトの位置・向き・サイズを調整 クリックして選択 移動 回転 拡大・縮小
18.
Scene(設計画面)の視点を変えよう [←] [→]で左右移動 [↑][↓]でズームイン/アウト [Alt]+ドラッグで回転 +ドラッグで上下左右
19.
CGの詳細情報の編集:位置の指定 オブジェクトの詳細の表示・追加・変更 はInspectorで行う 例えば、TransformのPositionを 変更すると位置が変わる Positionを0
0 0に変更
20.
CGの詳細情報の編集:色の設定 (1/3) ②右クリック ③Create マテリアル(色や質感の設定)を作成 ④Material ①Assets
21.
CGの詳細情報の編集:色の設定 (2/3) 作成したマテリアルの色(Albedo)を設定 (2) Albedoの右側をクリックし、色を選択 (1)作成したマテリアルをクリック
22.
CGの詳細情報の編集:色の設定 (3/3) オブジェクト(Cube)のマテリアルを開き、作成したマテリアルを割り当て (2) Materialsの横の▼ (1)Cube (3)
Element0に ドラッグ&ドロップ
23.
確認 色が反映されていればOK。あとから色の変更も可能。
24.
CGの詳細情報の編集:挙動の追加 スクリプト(プログラム)を記述することによりオブジェクトの挙動を表現 (2) Add Component (1)Cube
25.
CGの詳細情報の編集:挙動の追加 New Script スクリプト名 Create and
Add
26.
CGの詳細情報の編集:挙動の追加 スクリプトが追加された
27.
CGの詳細情報の編集:挙動の追加 ここをダブルクリック
28.
スクリプトを使って立方体を回転 public class NewBehaviourScript
: MonoBehaviour { // 初期化のために初回に一回だけ実行される void Start () { } // 毎フレーム(数10ミリ秒おきに)実行される void Update () { } }
29.
スクリプトを使って立方体を回転 public class NewBehaviourScript
: MonoBehaviour { // 初期化のために初回に一回だけ実行される void Start () { } // 毎フレーム(数10ミリ秒おきに)実行される void Update () { //毎フレームY軸を中心に1度ずつ回転 transform.Rotate(0, 1, 0, Space.Self); } }
30.
一旦、現状を保存 ①File ②Save Scene as...
31.
一旦、現状を保存 ①新規フォルダー ③sample1フォルダを開き コンテンツ名を入力 (例:sample1) ④保存 以降はCtrl + Sで現状のコンテンツ(Scene)を保存 ②新しいフォルダ名をSample1に変更
32.
不要なCGの削除 Delete Cubeを選択して[Delete]キー
33.
Next: 自己位置推定(Motion Tracking)
34.
ARCoreのインポート ①Assets ②Import Package → Custom
Package ③arcore-unity-sdk-xxx ④開く
35.
ARCore用のカメラの設定(1/2) Main Cameraを削除
36.
ARCore用のカメラの設定(2/2) ①GoogleARCore → Prefabs ②
ARCore Device ③ドラッグ&ドロップ
37.
表示オブジェクトの追加(1/2) ①GoogleARCore → Examples
→ Common → Prefabs ② Andy Green Diffuse ③ドラッグ&ドロップ
38.
表示オブジェクトの追加(2/2) ①AndyGreenDiffuse ② Positionの yを-0.1[m] zを0.5[m] ③ Scaleを1~3くらいに (20~60cmくらい) ※ARCoreではアプリ立ち上げ時のスマホの位置が0
0 0となります
39.
実機にインストール
40.
ビルドの準備 ①File ② Build Settings
41.
ビルドの準備 ②Switch Platform ① Android
42.
ビルドの準備 ②Player Settings ① Internal※ ※ 今後はInternalは無くなる 予定。Gradleについても 調査して後日共有します。
43.
ビルドの準備 ①Product Nameを入力 ② Resolution
and Presentation ③ Default OrientationをLandscape Left ※画面を自動で回転させたくない場合のみ向きを固定
44.
ビルドの準備 ① Other Settings ②
Multithreaded Renderingをオフ※ ※最新版ではオフにしなくてもOKのようなので、ビルドエラーにならないならオンのままで問題なし
45.
ビルドの準備 ①Package Nameを設定 例) com.arfukuoka.test1 ②
Minimum API Levelを Android 7.0に設定
46.
ビルドの準備 ①XR Settings ② ARCore
Supportedをオン
47.
ビルドと実機インストール ①File ② Build &
Run
48.
ビルドと実機インストール ①インストーラー(apk)の名前を設定 ② 保存
49.
動作確認
50.
Next: 平面検出(Environmental Understanding)
51.
Environmental Understandingを有効化(1/5) ①Sample1
52.
Environmental Understandingを有効化(2/5) ①右クリック ②Create ③GoogleARCore ④SessionConfig
53.
Environmental Understandingを有効化(3/5) ファイル名を変更(例:sample1)
54.
Environmental Understandingを有効化(4/5) ①sample1.assetをクリック 【Plane Finding
Mode】 (1)Disabled:平面認識なし (2)Horizontal And Vertical: 水平面と垂直面を認識 (3)Horizontal: 水平面のみ認識 (4)Vertical 垂直面のみ認識 今回は(2)~(4)から好きなのを選択
55.
Environmental Understandingを有効化(5/5) ①ARCore Deviceをクリック ②Sample1フォルダ ③sample1.asset ④Session
Configに ドラッグ&ドロップ
56.
認識した平面の可視化 (1/4) ①空白を右クリック ② Create
Empty
57.
認識した平面の可視化 (2/4) ①GameObjectの名前を Controllerに変更
58.
認識した平面の可視化 (3/4) ①Controllerをクリック ②AddComponent ③Detected Plane
Generator
59.
認識した平面の可視化 (4/4) ①GoogleARCore →
Examples → Common → Prefabs ③DetectedPlaneVisualizer ②Controller ④Detected Plane Prefabにドラッグ&ドロップ
60.
動作確認 水平面 垂直面
61.
タップした平面にCGを置く ①Controller ②Add Component
62.
タップした平面にCGを置く ①New Script ③Create and
Add ②PutScript
63.
タップした平面にCGを置く ①Controller ②PutScriptを ダブルクリック
64.
スクリプトの記述 using System.Collections; using System.Collections.Generic; using
UnityEngine; using GoogleARCore; public class PutScript : MonoBehaviour { public GameObject andy; //CG(Andy)を扱う変数 void Start () { } void Update () { //タップの検出 //タップした画面の座標と3D空間座標の対応付け //Andyをその位置に置く } }
65.
スクリプトの記述 void Update ()
{ //タッチしていないならreturn if (Input.touchCount < 1 ){ return; } Touch touch = Input.GetTouch(0); //画面をなぞっていなければreturn if (touch.phase != TouchPhase.Moved ){ return;} //タップした座標にAndyを移動。 TrackableHit hit; TrackableHitFlags filter = TrackableHitFlags.PlaneWithinPolygon; Frame.Raycast(touch.position.x, touch.position.y, filter, out hit) } touch.position hit Moved→画面をなぞる 平面を構成するポリゴンの 内側をタップ判定の対象に
66.
スクリプトの記述 void Update ()
{ //タッチしていないならreturn if (Input.touchCount < 1 ){ return; } Touch touch = Input.GetTouch(0); //画面をなぞっていなければreturn if (touch.phase != TouchPhase.Moved ){ return;} //タップした座標にAndyを移動。 TrackableHit hit; TrackableHitFlags filter = TrackableHitFlags.PlaneWithinPolygon; if(Frame.Raycast(touch.position.x, touch.position.y, filter, out hit) ) { //Andyの3D座標を指定するコードを記述(次頁) } } touch.position hit Moved→画面をなぞる 平面を構成するポリゴンの 内側をタップ判定の対象に
67.
スクリプトの記述 if (Frame.Raycast(touch.position.x, touch.position.y,
filter, out hit)) { //平面にヒットしたならAndyを置く if (hit.Trackable is DetectedPlane) { //Andyの位置・姿勢を指定 andy.transform.position = hit.Pose.position; andy.transform.rotation = hit.Pose.rotation; andy.transform.Rotate(0, 180, 0, Space.Self); //Anchorを設定 var anchor = hit.Trackable.CreateAnchor(hit.Pose); andy.transform.parent = anchor.transform; } } ※Anchor設定は指を離したときだけで十分。今回はコード量を減らすため同時に行っている
68.
スクリプトとGameObjectのAndyの対応付け ②AndyGreenDiffuse ①Controller ③PutScriptのAndy にドラッグ&ドロップ
69.
動作確認
70.
Next:空間ドローイング
71.
その前にCtrl+Sで現状を保存
72.
下準備 (1/6) Sample1を選択し、Ctrl +D
73.
下準備 (2/6) ②ファイル名をそれぞれsample2に変更①sample2
74.
下準備 (3/6) ①sample2.unityをダブルクリック ②sample2になったことを確認
75.
下準備 (4/6) ①ARCoreDevice ②sample2.asset ③Session Configに ドラッグ&ドロップ
76.
下準備 (5/6) Andy Dffuseを削除
77.
下準備 (6/6) ①Controller ②PutScript右の ③Remove Component
78.
平面認識機能が働くことを確認
79.
TrailRendererを用いた線描画 ①右クリック ②Create Empty
80.
TrailRendererを用いた線描画 ①GameObject ②Add Component
81.
TrailRendererを用いた線描画 Trailと入力 【Trail Renderer】 ■Material 前半で作ったマテリアル をElementに追加 ■Time Infinityに変更 ■MinVertexDistance 0.03 ■Width 0.01 Trail Rendererを ダブルクリック
82.
TrailRendererを用いた線描画 ShaderをSprites/Defaultに変更 ①GameObject
83.
動作確認 ①Scene GameObjectをマウスで移動すると軌跡が残る ②GameObject
84.
TrailRendererを用いた線描画 ②GameObject ①Sample2 ③ドラッグ&ドロップ
85.
TrailRendererを用いた線描画 GameObject削除
86.
TrailRendererを用いた線描画 ①Controller ②AddComponent
87.
TrailRendererを用いた線描画 ①New Script ③Create and
Add ②DrawScript
88.
TrailRendererを用いた線描画 ①Controller ②DrawScriptを ダブルクリック
89.
スクリプトの記述 using System.Collections; using System.Collections.Generic; using
UnityEngine; using GoogleARCore; public class DrawScript : MonoBehaviour { public GameObject obj; //軌跡を描くオブジェクトの元データ GameObject drawObj; //実際の軌跡描画に使うオブジェクト void Start () { } void Update () { //タップの検出 //タップ開始時に線を描くオブジェクトを生成 //その後はスマホの位置にオブジェクトを追従させて線描画 } }
90.
スクリプトの記述 void Update ()
{ if (Input.touchCount == 1) { //カメラ手前10cmの位置を取得 Vector3 p = Camera.main.transform.TransformPoint(0,0,0.1f); //タッチスタート if ( Input.GetTouch(0).phase == TouchPhase.Began) { drawObj = GameObject.Instantiate(obj, p, Quaternion.identity); } //押下中 else if (Input.GetTouch(0).phase == TouchPhase.Stationary){ drawObj.transform.position = p; } } }
91.
変数とCGの対応付け ②Controller ①Sample2 ④Objにドラッグ&ドロップ ③GameObject
92.
動作確認
93.
線を消す List<GameObject> lines =
new List<GameObject>(); void Update () { if (Input.touchCount == 1) {//カメラ手前10cmの位置を取得 Vector3 p = Camera.main.transform.TransformPoint(0,0,0.1f);//タ if ( Input.GetTouch(0).phase == TouchPhase.Began) { drawObj = GameObject.Instantiate(obj, p, Quaternion.identity); GameObject tmp = GameObject.Instantiate(obj, p, Quaternion.identity); lines.Add(tmp); drawObj = tmp; } //押下中 else if (Input.GetTouch(0).phase == TouchPhase.Stationary){ drawObj.transform.position = p; } } }
94.
線を消す void Update ()
{ if (Input.touchCount == 1) { //線の描画をする/カメラ手前10cmの位置を取得 } else if (Input.touchCount == 2) { if (Input.GetTouch(0).phase == TouchPhase.Ended) { for(int i = 0; i < lines.Count; i++) { Destroy(lines[i]); lines[i] = null; } lines.Clear(); } } }
95.
Next:顔認識(Augmented Faces)
96.
Next Step その前にCtrl+Sで現状を保存
97.
下準備 (1/6) Sample2を選択し、Ctrl +D
98.
下準備 (2/6) ②ファイル名をそれぞれsample3に変更①sample3
99.
下準備 (3/6) ①sample3.unityをダブルクリック ②sample3になったことを確認
100.
下準備 (4/6) ①ARCoreDevice ②sample3.asset ③Session Configに ドラッグ&ドロップ
101.
下準備 (5/6) GameObject削除
102.
下準備 (6/6) Controllerを削除
103.
フロントカメラを使用 ①ARCoreDevice ②Device Camera Direction をFront
Facingに変更
104.
顔認識を許可 ②sample3.asset①sample3 ③Augmented Face Mode
105.
顔にメッシュを貼り付ける ②CreateEmpty ①右クリック
106.
顔にメッシュを貼り付ける GameObjectの名前をFaceMeshに変更
107.
顔にメッシュを貼り付ける ①FaceMesh ②Add Component
108.
顔にメッシュを貼り付ける ①Faceで検索 ②ARCore Augmented Face Mesh
Filter
109.
顔にメッシュを貼り付ける Auto Bindをオン ※検出した顔に自動的にメッシュをアタッチする
110.
メッシュの見た目の設定 ①FaceMesh ②Add Coponent
111.
メッシュの見た目の設定 ②Mesh ③MeshRenderer ①消す
112.
メッシュの見た目の設定 ①Sample3 ③Create ②右クリック ④Material
113.
メッシュの見た目の設定 NewMaterialができていればOK
114.
Augmented Faces ②NewMaterial ①FaceMesh ②Materials内のElement0にドラッグ&ドロップ
115.
動作確認
116.
顔メッシュにテクスチャ画像を適用 ③Texture ※Transparentを選べば 透過画像も使用可能 ②Unlit ①Shader
117.
顔メッシュにテクスチャ画像を適用 ③ドラッグ&ドロップ ①Sampleフォルダ ①Sample3
118.
顔メッシュにテクスチャ画像を適用 ①NewMaterial
119.
顔メッシュにテクスチャ画像を適用 ②ドラッグ&ドロップ ①Mesh
120.
動作確認 & Memo マス目と出力結果を見比べれば顔の中の位置とのおよその対応付けが可能
121.
顔のパーツの位置情報を使用 FOREHEAD_LEFT FOREHEAD_RIGHT NOSE_TIP 今のところ、取得できるのはFOREHEAD_LEFT/RIGHTとNOSE_TIPの3点
122.
顔のパーツの位置情報を使用 ②CreateEmpty ①右クリック
123.
顔のパーツの位置情報を使用 ①GameObjectの名前をFacePartsに変更
124.
顔のパーツの位置情報を使用 ①FaceParts ②Add Compornent
125.
顔のパーツの位置情報を使用 ①Faceで検索 ②ARCore Augmented Face Rig
126.
顔のパーツの位置情報を使用 ①Auto Bind
127.
顔のパーツの位置情報を使用 ①FacePartsを開く ②NOSE_TIP,FOREHEAD_LFT/RIHGT が追加されていることを確認
128.
顔のパーツの位置情報を使用 ①NOSE_TIPを右クリック ②3D Object ③Sphere
129.
顔のパーツの位置情報を使用 ①Sphere ②Transformを編集 Position: 全て 0 Scale:
全て 0.04
130.
顔のパーツの位置情報を使用 同じ要領でFOREHEADの RIGHTとLEFTの子要素にも Sphereを追加
131.
顔のパーツの位置情報を使用
132.
パーツの位置の調整 ① FOREHEAD_LEFT の子要素のSphereを選択 ② PositionのY=-0.04
133.
パーツの位置の調整 ① FOREHEAD_RIGHT の子要素のSphereを選択 ② PositionのY=-0.04
135.
今日の内容 Googleが提供する次世代ARプラットフォーム。普通のスマホでマーカーレスARを実現。 【主要機能】 (1) 自己位置推定 (Motion
Tracking) (2) 平面認識 (Environmental Understanding) (3) 明るさ推定 (Light Estimation) (4) マーカー認識 (Augmented Image) (5) 空間共有 (Cloud Anchor) (6) 顔認識 (Augmented Faces) ← New!
136.
Fin.