SlideShare a Scribd company logo
1 of 26
Download to read offline
マスクの紐をインタフェース化する手法
山本 匠,杉浦裕太 (慶應義塾大学)
2022/9/14 情報科学技術フォーラム(FIT)2022
• 小型化,無線化
• ポータビリティが向上
• 入力のためのインタフェース面が減少
• 例:イヤホン
2
[1]Apple, EarPods with Lightning Connecter, https://www.apple.com/jp/shop/product/MMTN2J/A/earpods-with-lightning-connector (2022.6.30閲覧)
[2] Apple, AirPods Pro, https://www.apple.com/jp/shop/product/MLWK3J/A/airpods-pro, (2022.6.30閲覧)
ウェアラブルデバイスの小型化とその弊害
AirPods Pro[2]
EarPods[1]
無線化
リモコンの廃止
• ジェスチャを用いる手法が多数
3
ウェアラブルデバイスのための入力手法
手以外の利用
表情[Masai, 2020]
足[William, 2016]
ハンズフリー
非直感的?
鼻呼吸[Ogawa, 2021]
舌[Hashimoto, 2018]
頬[Yamashita, 2017]
耳[Kikuchi, 2017]
手を利用
直感的な入力が可能
両手が塞がっている際は不可能
腕[Ogata, 2015]
指[Lin, 2022]
• COVID-19の影響:マスクは生活必需品化
• 公共空間における着用が推奨
• 多様な素材・色のマスクが販売
• 一部ではファッションアイテム化
• ウェアラブルデバイスとして活用できれば,着用時に便利
4
マスクの普及と着用の推奨
• マスクの紐
• マスクを装着するために必要
• ジェスチャ入力インタフェースとして活用できないか?
• 利点
• 多様で直感的な入力が実現
• マスクの普及により自然に利用可能
5
目的
マスクの紐を用いた情報入力手法
• 本研究の新規性
• マスクと手のインタラクションは未開拓
• 紐に着目
• 本研究の優位性
• マスクへのセンサ装着なしにインタフェース化
6
関連研究:マスクを用いたインタフェース
入力
「口パク」での入力
[Kunimi, 2021]
口の動きを検知
[Suzuki, 2020]
出力
呼吸を検知
[Kusabuka, 2020]
表情を識別し可視化
[Lee, 2020]
• 本研究の立ち位置
• 既存のマスクの紐をセンシング
7
関連研究:紐を用いたインタフェース
既存の紐を使用
センサを組み合わせてセンシング
[Schwarz, 2010]
特殊な紐を使用
導電性組紐を用いたひもセンサ
[Olwal, 2018]
摩擦電気ナノ発電機を用いたセンサ
[Shahmiri, 2019]
8
識別するジェスチャの決定
ジェスチャを識別するシステムの実装
実装までの流れ
9
識別するジェスチャの決定
ジェスチャを識別するシステムの実装
実装までの流れ
• 紐を用いたジェスチャは多様
• ひっぱる,はじく,ねじるetc…
• マスクの紐に関する既存研究例はない
• ジェスチャ識別研究におけるジェスチャ決定
• 研究者が決定
• 実験(User Elicitation Study)によって決定
• 実験による決定の方が好ましい[Morris, 2010]
10
ジェスチャデザイン
どのようなジェスチャを識別できるシステムにすればよいか?
操作の提示 ジェスチャの考案
実験
多数決によりジェスチャ決定
ジェスチャ定義のためのUser Elicitation Study
• 20人の被験者に21の操作を与えジェスチャを考案
• 操作は先行研究[Masai, 2020][Fukahori, 2015]をベース
に決定
• 操作についての映像を視聴した後にジェスチャ考案
• 考案後以下の項目を質問
• そのジェスチャにした理由
• 提案ジェスチャの長所・短所
• 考案時のルール
• 耳にかける紐のみを使用
• 同グループ間でのジェスチャの重複は不可
• 技術的に実装可能かは考慮する必要なし
• 後からジェスチャを変更可能
11
人数 20人
年齢 平均26.5歳
標準偏差10.5歳
性別(男/女) 12/8
利き手 全員右利き
User Elicitation Study
操作一覧
被験者の属性情報
• 6種類のジェスチャに分類
• つまむ,ひっぱる,なぞる,タッチ,はじく,ねじる
• 各種類に対してさらに分類
• 使用するマスクの箇所,方向,回数,時間,ねじり方
12
ジェスチャの分類法
本研究におけるジェスチャの分類法
• 418個のジェスチャが提案
• 種類ごとの傾向
• ひっぱるジェスチャが最多
• 使用箇所の傾向
• 左右
• 右が左に比べて多い
• 被験者は全員右利き
• 上下
• タッチ・なぞるジェスチャ
• 上紐が多く使用
• 紐に動きを伴わない場合は上紐が使用
• ひっぱる・はじくジェスチャ
• 下紐が多く使用
• 紐に動きを伴う場合は下紐が使用
13
結果:提案ジェスチャの傾向
提案ジェスチャの種類
提案ジェスチャの使用箇所
• 被験者間での提案の一致度合いを示
すAgreement Rates (AR) [Vatavu, 2015]
を算出
• 𝑟𝑟: 操作
• 𝑛𝑛: ジェスチャを提案した被験者数
• 𝛿𝛿𝑖𝑖,𝑗𝑗: 𝑖𝑖番目と𝑗𝑗番目の被験者の提案が一致
した場合は1, 異なる場合は0
• 結果
• 平均が0.062,最小0.005,最大0.142
• 低一致(<0.1)と解釈
• マスクの紐を用いた入力は多様
14
Agreement Rates (AR)の算出
各操作の一致度
一致度の定義式
• 結果
• 操作間のジェスチャ競合に関しては以下のように考慮
• 同一グループ内での競合はNG
• 操作0に関しては他操作と競合はNG
15
最終的なジェスチャセットの導出
最終的に決定したジェスチャ
• 「直感」「簡単」という理由が多数
• なるべく片手で完結させるジェスチャを選択
• 既存のデバイスから発想
• 欠点
• マスクの耐久性を危惧
• 「マスクの紐が緩む」
• 肌やヘアスタイルに悪影響
16
定性的フィードバックから得られた知見
17
識別するジェスチャの決定
ジェスチャを識別するシステムの実装
実装までの流れ
• User Elicitation Studyの結果から導出されたジェスチャの種類
• ひっぱる,タップ,長押し,はじく,なぞる
• 現段階では最も多く提案されたひっぱるジェスチャについて識別
18
実装
ハードウェア ソフトウェア
機械学習を用いて
ジェスチャ識別
紐の動きをセンシング
提案手法
19
実装:ハードウェア
• 耳掛け型デバイス
• マスクの紐と同時に耳に装着
• フォトリフレクタ(反射型光センサ)
• 発光部と受光部から構成
• 発光部は赤外光を発光
• 受光部は赤外光を受光しセンサ値に
• 6つのフォトリフレクタが搭載
• 2つ:ユーザの視線方向
• 4つ:ユーザの頭の外側方向
フォトリフレクタの配置
(a) デバイスのレール部と耳掛け部
(b) ユーザが装着している様子
20
実装:ソフトウェア
• 識別の流れ
センサ
データ
6
35[fps] x 5[s] = 175 frames
画像データ
Max Pooling (2 x 2 pixel)
Convolution (32 filters) / ReLU
Max Pooling (2 x 2 pixel)
Convolution (64 filters) / ReLU
Max Pooling (2 x 2 pixel)
Convolution (128 filters) / ReLU
Max Pooling (2 x 2 pixel)
Fully Connected (1024 features) / ReLU
Dropout (50%)
Fully Connected (4 features) / Softmax
Convolution (16 filters) / ReLU
Image Input (6 x 175pixel)
CNNモデルの構成
Min-max
Normalization
• 右耳にデバイスを装着
• 被験者一人当たり各ジェスチャ20回を取得
21
精度評価実験の概要
人数・性別 男性4名
年齢
平均
21.75歳
利き手 全員右手
実験参加者の属性
Upper-Up
Lower-Up Lower-Down
Upper-Down
識別するジェスチャ
• 10分割交差検証
• 4ジェスチャ × 80枚の画像データ
• 平均識別精度79.69%
22
精度評価実験の結果
識別精度
• ひっぱるジェスチャしか識別できない
• マイクや加速度センサなど他センサと併用
• 高精度化に向けて
• センサの前処理,識別モデルの変更
• センサ数の増加や他センサとの併用
23
議論と制約
24
まとめ
背景 マスクの需要の拡大
関連研究 既存のマスク研究ではマスクにセンサを直接装着
提案
紐を用いた入力手法
マスクにセンサを付ける必要のない耳掛け型ハードウェア
実験
被験者にジェスチャを考案させるElicitation Studyにより
ジェスチャセットを決定
実装
フォトリフレクタを用いた紐のセンシング
CNNモデルによるジェスチャ識別
評価 識別精度79.69%
課題
識別可能なジェスチャが限定,低精度
他センサとの併用や前処理・モデルの改良
Upper-Up
Lower-Up Lower-Down
Upper-Down
[Lin, 2022] Stephen Shiao-ru Lin, Nisal Menuka Gamage, Kithmini Herath, and Anusha Withana. 2022. MyoSpring: 3D Printing Mechanomyographic Sensors for Subtle Finger Gesture Recognition. In Sixteenth
International Conference on Tangible, Embedded, and Embodied Interaction (TEI '22). Association for Computing Machinery, New York, NY, USA, Article 15, 1–13.
[Yamashita, 2017] Koki Yamashita, Takashi Kikuchi, Katsutoshi Masai, Maki Sugimoto, Bruce H. Thomas, Yuta Sugiura, CheekInput: Turning Your Cheek into an Input Surface by Embedded Optical Sensors on
a Head-mounted Display, In Proceedings of the 23rd ACM Symposium on Virtual Reality Software and Technology (VRST ’17), ACM, Article 19, 8 pages, November 8-10, 2017, Gothenburg, Sweden.
[Kikuchi, 2017] Takashi Kikuchi, Yuta Sugiura, Katsutoshi Masai, Maki Sugimoto, Bruce H. Thomas, EarTouch: Turning the Ear into an Input Surface, In Proceedings of the 19th International Conference on
Human-Computer Interaction with Mobile Devices and Services (MobileHCI ’17). ACM, New York, NY, USA, Article 27, 6 pages.
[Ogata, 2015] Masa Ogata and Michita Imai. 2015. SkinWatch: skin gesture interaction for smart watch. In Proceedings of the 6th Augmented Human International Conference (AH '15). Association for
Computing Machinery, New York, NY, USA, 21–24.
[Ogawa, 2021] Ryoma Ogawa, Kyosuke Futami, and Kazuya Murao. 2021. NasalBreathInput: A Hands-Free Input Method by Nasal Breath Gestures using a Glasses Type Device. In The 23rd International
Conference on Information Integration and Web Intelligence (iiWAS2021). Association for Computing Machinery, New York, NY, USA, 620–624.
[Masai, 2020] K. Masai, K. Kunze, D. Sakamoto, Y. Sugiura and M. Sugimoto, "Face Commands - User-Defined Facial Gestures for Smart Glasses," 2020 IEEE International Symposium on Mixed and
Augmented Reality (ISMAR), 2020, pp. 374-386,
[Hashimoto, 2018] Takuma Hashimoto, Suzanne Low, Koji Fujita, Risa Usumi, Hiroshi Yanagihara, Chihiro Takahashi, Maki Sugimoto, Yuta Sugiura, TongueInput: Input Method by Tongue Gestures Using
Optical Sensors Embedded in Mousepiece, In Proceedings of the SICE Annual Conference 2018, IEEE, 6 pages, September 11-14, 2018, Nara, Japan.
[William, 2016] William Saunders and Daniel Vogel. 2016. Tap-Kick-Click: Foot Interaction for a Standing Desk. In Proceedings of the 2016 ACM Conference on Designing Interactive Systems (DIS '16).
Association for Computing Machinery, New York, NY, USA, 323–333.
[Kunimi, 2022] Yusuke Kunimi, Masa Ogata, Hirotaka Hiraki, Motoshi Itagaki, Shusuke Kanazawa, and Masaaki Mochimaru. 2022. E-MASK: A Mask-Shaped Interface for Silent Speech Interaction with Flexible
Strain Sensors. In Augmented Humans 2022 (AHs 2022). Association for Computing Machinery, New York, NY, USA, 26–34.
[Lee, 2020] Hyein Lee, Yoonji Kim, and Andrea Bianchi. 2020. MAScreen: Augmenting Speech with Visual Cues of Lip Motions, Facial Expressions, and Text Using a Wearable Display. In SIGGRAPH Asia 2020
Emerging Technologies(SA '20). Association for Computing Machinery, New York, NY, USA, Article 2, 1–2
[Kusabuka, 2020] Takahiro Kusabuka and Takuya Indo. 2020. IBUKI: Gesture Input Method Based on Breathing. In Adjunct Publication of the 33rd Annual ACM Symposium on User Interface Software and
Technology (UIST '20 Adjunct). Association for Computing Machinery, New York, NY, USA, 102–104.
25
参考文献
[Suzuki, 2020] Suzuki, Y., Sekimori, K., Yamato, Y., Yamasaki, Y., Shizuki, B., Takahashi, S. (2020). A Mouth Gesture Interface Featuring a Mutual-Capacitance Sensor Embedded in a Surgical Mask. In: Kurosu,
M. (eds) Human-Computer Interaction. Multimodal and Natural Interaction. HCII 2020. Lecture Notes in Computer Science(), vol 12182. Springer, Cham.
[Schwarz, 2010] Julia Schwarz, Chris Harrison, Scott Hudson, and Jennifer Mankoff. 2010. Cord input: an intuitive, high-accuracy, multi-degree-of-freedom input method for mobile devices. In Proceedings of
the SIGCHI Conference on Human Factors in Computing Systems (CHI '10). Association for Computing Machinery, New York, NY, USA, 1657–1660.
[Olwal, 2018] Alex Olwal, Jon Moeller, Greg Priest-Dorman, Thad Starner, and Ben Carroll. 2018. I/O Braid: Scalable Touch-Sensitive Lighted Cords Using Spiraling, Repeating Sensing Textiles and Fiber Optics.
In Proceedings of the 31st Annual ACM Symposium on User Interface Software and Technology (UIST '18). Association for Computing Machinery, New York, NY, USA, 485–497.
[Shahmiri, 2019] Fereshteh Shahmiri, Chaoyu Chen, Anandghan Waghmare, Dingtian Zhang, Shivan Mittal, Steven L. Zhang, Yi-Cheng Wang, Zhong Lin Wang, Thad E. Starner, and Gregory D. Abowd. 2019.
Serpentine: A Self-Powered Reversibly Deformable Cord Sensor for Human Input. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (CHI '19). Association for Computing
Machinery, New York, NY, USA, Paper 545, 1–14.
[Morris, 2010] Meredith Ringel Morris, Jacob O. Wobbrock, and Andrew D. Wilson. 2010. Understanding users' preferences for surface gestures. In Proceedings of Graphics Interface 2010 (GI '10). Canadian
Information Processing Society, CAN, 261–268.
[Vatavu, 2015] Radu-Daniel Vatavu and Jacob O. Wobbrock. 2015. Formalizing Agreement Analysis for Elicitation Studies: New Measures, Significance Test, and Toolkit. In Proceedings of the 33rd Annual ACM
Conference on Human Factors in Computing Systems (CHI '15). Association for Computing Machinery, New York, NY, USA, 1325–1334.
[Fukahori, 2015] Koumei Fukahori, Daisukes Sakamoto, and Takeo Igarashi. 2015. Exploring Subtle Foot Plantar-based Gestures with Sock-placed Pressure Sensors. In Proceedings of the 33rd Annual ACM
Conference on Human Factors in Computing Systems (CHI '15). Association for Computing Machinery, New York, NY, USA, 3019–3028.
26
参考文献

More Related Content

What's hot

落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS 落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS Yoichi Ochiai
 
学振特別研究員になるために~2020年度申請版
学振特別研究員になるために~2020年度申請版学振特別研究員になるために~2020年度申請版
学振特別研究員になるために~2020年度申請版Masahito Ohue
 
反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価
反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価
反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価sugiuralab
 
#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDFYoichi Ochiai
 
Let's design MVP #devlove #leanstartup
Let's design MVP #devlove #leanstartupLet's design MVP #devlove #leanstartup
Let's design MVP #devlove #leanstartupItsuki Kuroda
 
使う人の体験を時間軸で考えよう 〜UXデザインの視点を取り入れる
使う人の体験を時間軸で考えよう〜UXデザインの視点を取り入れる使う人の体験を時間軸で考えよう〜UXデザインの視点を取り入れる
使う人の体験を時間軸で考えよう 〜UXデザインの視点を取り入れるMasaya Ando
 
研究法(Claimとは)
研究法(Claimとは)研究法(Claimとは)
研究法(Claimとは)Jun Rekimoto
 
つたわるスライド
つたわるスライドつたわるスライド
つたわるスライドKazuyoshi Goto
 
KLabインターンシップ成果報告会
KLabインターンシップ成果報告会KLabインターンシップ成果報告会
KLabインターンシップ成果報告会Hiroaki Murayama
 
学振特別研究員になるために~2024年度申請版
 学振特別研究員になるために~2024年度申請版 学振特別研究員になるために~2024年度申請版
学振特別研究員になるために~2024年度申請版Masahito Ohue
 
伝わるプレゼンをする方法
伝わるプレゼンをする方法伝わるプレゼンをする方法
伝わるプレゼンをする方法Hideaki Miyake
 
#FTMA15 先端技術とメディア表現#2 
#FTMA15 先端技術とメディア表現#2 #FTMA15 先端技術とメディア表現#2 
#FTMA15 先端技術とメディア表現#2 Yoichi Ochiai
 
DockerCon EU 2015: Day 1 General Session
DockerCon EU 2015: Day 1 General SessionDockerCon EU 2015: Day 1 General Session
DockerCon EU 2015: Day 1 General SessionDocker, Inc.
 
色で失敗しない為に 〜理論に基づく配色フロー〜
色で失敗しない為に 〜理論に基づく配色フロー〜色で失敗しない為に 〜理論に基づく配色フロー〜
色で失敗しない為に 〜理論に基づく配色フロー〜Yuudai Tachibana
 
プレゼンの技術
プレゼンの技術プレゼンの技術
プレゼンの技術心 谷本
 
学振特別研究員になるために~2023年度申請版
学振特別研究員になるために~2023年度申請版学振特別研究員になるために~2023年度申請版
学振特別研究員になるために~2023年度申請版Masahito Ohue
 
なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716
なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716
なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716Dai Murata
 
UXデザインの理論・プロセス・手法の体系とポイント
UXデザインの理論・プロセス・手法の体系とポイントUXデザインの理論・プロセス・手法の体系とポイント
UXデザインの理論・プロセス・手法の体系とポイントMasaya Ando
 
高次アンビソニックスのための マイクロホンアレイ設計の研究
高次アンビソニックスのための マイクロホンアレイ設計の研究高次アンビソニックスのための マイクロホンアレイ設計の研究
高次アンビソニックスのための マイクロホンアレイ設計の研究horieyuto
 
プレゼン初心者にありがちなアンチパターン
プレゼン初心者にありがちなアンチパターンプレゼン初心者にありがちなアンチパターン
プレゼン初心者にありがちなアンチパターン真俊 横田
 

What's hot (20)

落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS 落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS
 
学振特別研究員になるために~2020年度申請版
学振特別研究員になるために~2020年度申請版学振特別研究員になるために~2020年度申請版
学振特別研究員になるために~2020年度申請版
 
反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価
反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価
反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価
 
#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF
 
Let's design MVP #devlove #leanstartup
Let's design MVP #devlove #leanstartupLet's design MVP #devlove #leanstartup
Let's design MVP #devlove #leanstartup
 
使う人の体験を時間軸で考えよう 〜UXデザインの視点を取り入れる
使う人の体験を時間軸で考えよう〜UXデザインの視点を取り入れる使う人の体験を時間軸で考えよう〜UXデザインの視点を取り入れる
使う人の体験を時間軸で考えよう 〜UXデザインの視点を取り入れる
 
研究法(Claimとは)
研究法(Claimとは)研究法(Claimとは)
研究法(Claimとは)
 
つたわるスライド
つたわるスライドつたわるスライド
つたわるスライド
 
KLabインターンシップ成果報告会
KLabインターンシップ成果報告会KLabインターンシップ成果報告会
KLabインターンシップ成果報告会
 
学振特別研究員になるために~2024年度申請版
 学振特別研究員になるために~2024年度申請版 学振特別研究員になるために~2024年度申請版
学振特別研究員になるために~2024年度申請版
 
伝わるプレゼンをする方法
伝わるプレゼンをする方法伝わるプレゼンをする方法
伝わるプレゼンをする方法
 
#FTMA15 先端技術とメディア表現#2 
#FTMA15 先端技術とメディア表現#2 #FTMA15 先端技術とメディア表現#2 
#FTMA15 先端技術とメディア表現#2 
 
DockerCon EU 2015: Day 1 General Session
DockerCon EU 2015: Day 1 General SessionDockerCon EU 2015: Day 1 General Session
DockerCon EU 2015: Day 1 General Session
 
色で失敗しない為に 〜理論に基づく配色フロー〜
色で失敗しない為に 〜理論に基づく配色フロー〜色で失敗しない為に 〜理論に基づく配色フロー〜
色で失敗しない為に 〜理論に基づく配色フロー〜
 
プレゼンの技術
プレゼンの技術プレゼンの技術
プレゼンの技術
 
学振特別研究員になるために~2023年度申請版
学振特別研究員になるために~2023年度申請版学振特別研究員になるために~2023年度申請版
学振特別研究員になるために~2023年度申請版
 
なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716
なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716
なぜあの人のプレゼンテーションはいつもイイねと言われるのか0716
 
UXデザインの理論・プロセス・手法の体系とポイント
UXデザインの理論・プロセス・手法の体系とポイントUXデザインの理論・プロセス・手法の体系とポイント
UXデザインの理論・プロセス・手法の体系とポイント
 
高次アンビソニックスのための マイクロホンアレイ設計の研究
高次アンビソニックスのための マイクロホンアレイ設計の研究高次アンビソニックスのための マイクロホンアレイ設計の研究
高次アンビソニックスのための マイクロホンアレイ設計の研究
 
プレゼン初心者にありがちなアンチパターン
プレゼン初心者にありがちなアンチパターンプレゼン初心者にありがちなアンチパターン
プレゼン初心者にありがちなアンチパターン
 

Similar to マスクの紐をインタフェース化する手法

「Lチカから考えるIoT時代のものづくり」
「Lチカから考えるIoT時代のものづくり」「Lチカから考えるIoT時代のものづくり」
「Lチカから考えるIoT時代のものづくり」Junichi Akita
 
光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)
光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)
光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)sugiuralab
 
HCI分野の紹介と最新研究
HCI分野の紹介と最新研究HCI分野の紹介と最新研究
HCI分野の紹介と最新研究ota42y
 
産業としての半導体とムーアの法則
産業としての半導体とムーアの法則産業としての半導体とムーアの法則
産業としての半導体とムーアの法則Junichi Akita
 
ニコニコ学会 Ubi camera-edit_umt_03
ニコニコ学会 Ubi camera-edit_umt_03ニコニコ学会 Ubi camera-edit_umt_03
ニコニコ学会 Ubi camera-edit_umt_03Furuyoshikun
 
Smart deviceとhtml5
Smart deviceとhtml5Smart deviceとhtml5
Smart deviceとhtml5html5j
 
SSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測する
SSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測するSSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測する
SSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測するSSII
 
Infinity Ventures Summit 2013 Spring
Infinity Ventures Summit 2013 SpringInfinity Ventures Summit 2013 Spring
Infinity Ventures Summit 2013 SpringShigeru Kobayashi
 
業績リスト 三宅陽一郎 2021年9月現在
業績リスト 三宅陽一郎 2021年9月現在業績リスト 三宅陽一郎 2021年9月現在
業績リスト 三宅陽一郎 2021年9月現在Youichiro Miyake
 
SCORER Partner Summit 2018_ Opening
SCORER Partner Summit 2018_ OpeningSCORER Partner Summit 2018_ Opening
SCORER Partner Summit 2018_ OpeningFuture Standard
 
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けてThe Whole Brain Architecture Initiative
 
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探るヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探るAkihiko Yamaguchi
 
AI神絵師はITエンジニアの未来をどう変えるのか
AI神絵師はITエンジニアの未来をどう変えるのかAI神絵師はITエンジニアの未来をどう変えるのか
AI神絵師はITエンジニアの未来をどう変えるのかGREE VR Studio Lab
 
日本のメイカー活動とNT金沢
日本のメイカー活動とNT金沢日本のメイカー活動とNT金沢
日本のメイカー活動とNT金沢Junichi Akita
 
Drive-by Sensingによる都市のモニタリング
Drive-by Sensingによる都市のモニタリングDrive-by Sensingによる都市のモニタリング
Drive-by Sensingによる都市のモニタリングTakuma Oda
 
UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例
UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例
UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例 Masaya Ando
 
センサーネットワークコンソーシアム(山口さん作成)
センサーネットワークコンソーシアム(山口さん作成)センサーネットワークコンソーシアム(山口さん作成)
センサーネットワークコンソーシアム(山口さん作成)CRI Japan, Inc.
 
20190605 jsai2019 kawashima
20190605 jsai2019 kawashima20190605 jsai2019 kawashima
20190605 jsai2019 kawashima茂生 河島
 

Similar to マスクの紐をインタフェース化する手法 (20)

「Lチカから考えるIoT時代のものづくり」
「Lチカから考えるIoT時代のものづくり」「Lチカから考えるIoT時代のものづくり」
「Lチカから考えるIoT時代のものづくり」
 
光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)
光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)
光ファイバを用いた畳ディスプレイの試作(エンターテイメントコンピューティング2022)
 
HCI分野の紹介と最新研究
HCI分野の紹介と最新研究HCI分野の紹介と最新研究
HCI分野の紹介と最新研究
 
Nagoya2018
Nagoya2018Nagoya2018
Nagoya2018
 
産業としての半導体とムーアの法則
産業としての半導体とムーアの法則産業としての半導体とムーアの法則
産業としての半導体とムーアの法則
 
ニコニコ学会 Ubi camera-edit_umt_03
ニコニコ学会 Ubi camera-edit_umt_03ニコニコ学会 Ubi camera-edit_umt_03
ニコニコ学会 Ubi camera-edit_umt_03
 
Smart deviceとhtml5
Smart deviceとhtml5Smart deviceとhtml5
Smart deviceとhtml5
 
SSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測する
SSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測するSSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測する
SSII2021 [OS1-02] まち全体のインフラや人流をサステナブルに計測する
 
Infinity Ventures Summit 2013 Spring
Infinity Ventures Summit 2013 SpringInfinity Ventures Summit 2013 Spring
Infinity Ventures Summit 2013 Spring
 
業績リスト 三宅陽一郎 2021年9月現在
業績リスト 三宅陽一郎 2021年9月現在業績リスト 三宅陽一郎 2021年9月現在
業績リスト 三宅陽一郎 2021年9月現在
 
SCORER Partner Summit 2018_ Opening
SCORER Partner Summit 2018_ OpeningSCORER Partner Summit 2018_ Opening
SCORER Partner Summit 2018_ Opening
 
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
 
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探るヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
 
AI神絵師はITエンジニアの未来をどう変えるのか
AI神絵師はITエンジニアの未来をどう変えるのかAI神絵師はITエンジニアの未来をどう変えるのか
AI神絵師はITエンジニアの未来をどう変えるのか
 
日本のメイカー活動とNT金沢
日本のメイカー活動とNT金沢日本のメイカー活動とNT金沢
日本のメイカー活動とNT金沢
 
Drive-by Sensingによる都市のモニタリング
Drive-by Sensingによる都市のモニタリングDrive-by Sensingによる都市のモニタリング
Drive-by Sensingによる都市のモニタリング
 
UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例
UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例
UX研究のテーマとアプローチ~ 混合研究法によるUX研究の事例
 
センサーネットワークコンソーシアム(山口さん作成)
センサーネットワークコンソーシアム(山口さん作成)センサーネットワークコンソーシアム(山口さん作成)
センサーネットワークコンソーシアム(山口さん作成)
 
20190605 jsai2019 kawashima
20190605 jsai2019 kawashima20190605 jsai2019 kawashima
20190605 jsai2019 kawashima
 
Toolsの杜 - マーベリック - 「IT×デザイン」のススメ
Toolsの杜 - マーベリック - 「IT×デザイン」のススメToolsの杜 - マーベリック - 「IT×デザイン」のススメ
Toolsの杜 - マーベリック - 「IT×デザイン」のススメ
 

More from sugiuralab

ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法sugiuralab
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェースSelfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェースsugiuralab
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...sugiuralab
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価sugiuralab
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールsugiuralab
 
EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識
EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識
EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識sugiuralab
 
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイスSkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイスsugiuralab
 
バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析sugiuralab
 
Converting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring CapacitanceConverting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring Capacitancesugiuralab
 
Pinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic SensorPinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic Sensorsugiuralab
 
Smartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing MotionsSmartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing Motionssugiuralab
 
Tactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion TrajectoryTactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion Trajectorysugiuralab
 
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective SensorsTouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensorssugiuralab
 
Seeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow InputSeeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow Inputsugiuralab
 
Identification and Authentication Using Clavicles
Identification and Authentication Using ClaviclesIdentification and Authentication Using Clavicles
Identification and Authentication Using Claviclessugiuralab
 
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective SensorsEstimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective Sensorssugiuralab
 
バウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイスバウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイスsugiuralab
 
A Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image ProjectionA Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image Projectionsugiuralab
 

More from sugiuralab (20)

ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェースSelfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
 
EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識
EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識
EarHover:ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識
 
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイスSkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
 
バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析
 
Converting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring CapacitanceConverting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring Capacitance
 
Pinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic SensorPinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic Sensor
 
Smartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing MotionsSmartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing Motions
 
Tactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion TrajectoryTactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion Trajectory
 
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective SensorsTouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
 
Seeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow InputSeeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow Input
 
Identification and Authentication Using Clavicles
Identification and Authentication Using ClaviclesIdentification and Authentication Using Clavicles
Identification and Authentication Using Clavicles
 
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective SensorsEstimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
 
バウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイスバウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイス
 
A Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image ProjectionA Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image Projection
 

Recently uploaded

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成Hiroshi Tomioka
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 

Recently uploaded (8)

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 

マスクの紐をインタフェース化する手法

  • 2. • 小型化,無線化 • ポータビリティが向上 • 入力のためのインタフェース面が減少 • 例:イヤホン 2 [1]Apple, EarPods with Lightning Connecter, https://www.apple.com/jp/shop/product/MMTN2J/A/earpods-with-lightning-connector (2022.6.30閲覧) [2] Apple, AirPods Pro, https://www.apple.com/jp/shop/product/MLWK3J/A/airpods-pro, (2022.6.30閲覧) ウェアラブルデバイスの小型化とその弊害 AirPods Pro[2] EarPods[1] 無線化 リモコンの廃止
  • 3. • ジェスチャを用いる手法が多数 3 ウェアラブルデバイスのための入力手法 手以外の利用 表情[Masai, 2020] 足[William, 2016] ハンズフリー 非直感的? 鼻呼吸[Ogawa, 2021] 舌[Hashimoto, 2018] 頬[Yamashita, 2017] 耳[Kikuchi, 2017] 手を利用 直感的な入力が可能 両手が塞がっている際は不可能 腕[Ogata, 2015] 指[Lin, 2022]
  • 4. • COVID-19の影響:マスクは生活必需品化 • 公共空間における着用が推奨 • 多様な素材・色のマスクが販売 • 一部ではファッションアイテム化 • ウェアラブルデバイスとして活用できれば,着用時に便利 4 マスクの普及と着用の推奨
  • 5. • マスクの紐 • マスクを装着するために必要 • ジェスチャ入力インタフェースとして活用できないか? • 利点 • 多様で直感的な入力が実現 • マスクの普及により自然に利用可能 5 目的 マスクの紐を用いた情報入力手法
  • 6. • 本研究の新規性 • マスクと手のインタラクションは未開拓 • 紐に着目 • 本研究の優位性 • マスクへのセンサ装着なしにインタフェース化 6 関連研究:マスクを用いたインタフェース 入力 「口パク」での入力 [Kunimi, 2021] 口の動きを検知 [Suzuki, 2020] 出力 呼吸を検知 [Kusabuka, 2020] 表情を識別し可視化 [Lee, 2020]
  • 7. • 本研究の立ち位置 • 既存のマスクの紐をセンシング 7 関連研究:紐を用いたインタフェース 既存の紐を使用 センサを組み合わせてセンシング [Schwarz, 2010] 特殊な紐を使用 導電性組紐を用いたひもセンサ [Olwal, 2018] 摩擦電気ナノ発電機を用いたセンサ [Shahmiri, 2019]
  • 10. • 紐を用いたジェスチャは多様 • ひっぱる,はじく,ねじるetc… • マスクの紐に関する既存研究例はない • ジェスチャ識別研究におけるジェスチャ決定 • 研究者が決定 • 実験(User Elicitation Study)によって決定 • 実験による決定の方が好ましい[Morris, 2010] 10 ジェスチャデザイン どのようなジェスチャを識別できるシステムにすればよいか? 操作の提示 ジェスチャの考案 実験 多数決によりジェスチャ決定 ジェスチャ定義のためのUser Elicitation Study
  • 11. • 20人の被験者に21の操作を与えジェスチャを考案 • 操作は先行研究[Masai, 2020][Fukahori, 2015]をベース に決定 • 操作についての映像を視聴した後にジェスチャ考案 • 考案後以下の項目を質問 • そのジェスチャにした理由 • 提案ジェスチャの長所・短所 • 考案時のルール • 耳にかける紐のみを使用 • 同グループ間でのジェスチャの重複は不可 • 技術的に実装可能かは考慮する必要なし • 後からジェスチャを変更可能 11 人数 20人 年齢 平均26.5歳 標準偏差10.5歳 性別(男/女) 12/8 利き手 全員右利き User Elicitation Study 操作一覧 被験者の属性情報
  • 12. • 6種類のジェスチャに分類 • つまむ,ひっぱる,なぞる,タッチ,はじく,ねじる • 各種類に対してさらに分類 • 使用するマスクの箇所,方向,回数,時間,ねじり方 12 ジェスチャの分類法 本研究におけるジェスチャの分類法
  • 13. • 418個のジェスチャが提案 • 種類ごとの傾向 • ひっぱるジェスチャが最多 • 使用箇所の傾向 • 左右 • 右が左に比べて多い • 被験者は全員右利き • 上下 • タッチ・なぞるジェスチャ • 上紐が多く使用 • 紐に動きを伴わない場合は上紐が使用 • ひっぱる・はじくジェスチャ • 下紐が多く使用 • 紐に動きを伴う場合は下紐が使用 13 結果:提案ジェスチャの傾向 提案ジェスチャの種類 提案ジェスチャの使用箇所
  • 14. • 被験者間での提案の一致度合いを示 すAgreement Rates (AR) [Vatavu, 2015] を算出 • 𝑟𝑟: 操作 • 𝑛𝑛: ジェスチャを提案した被験者数 • 𝛿𝛿𝑖𝑖,𝑗𝑗: 𝑖𝑖番目と𝑗𝑗番目の被験者の提案が一致 した場合は1, 異なる場合は0 • 結果 • 平均が0.062,最小0.005,最大0.142 • 低一致(<0.1)と解釈 • マスクの紐を用いた入力は多様 14 Agreement Rates (AR)の算出 各操作の一致度 一致度の定義式
  • 15. • 結果 • 操作間のジェスチャ競合に関しては以下のように考慮 • 同一グループ内での競合はNG • 操作0に関しては他操作と競合はNG 15 最終的なジェスチャセットの導出 最終的に決定したジェスチャ
  • 16. • 「直感」「簡単」という理由が多数 • なるべく片手で完結させるジェスチャを選択 • 既存のデバイスから発想 • 欠点 • マスクの耐久性を危惧 • 「マスクの紐が緩む」 • 肌やヘアスタイルに悪影響 16 定性的フィードバックから得られた知見
  • 18. • User Elicitation Studyの結果から導出されたジェスチャの種類 • ひっぱる,タップ,長押し,はじく,なぞる • 現段階では最も多く提案されたひっぱるジェスチャについて識別 18 実装 ハードウェア ソフトウェア 機械学習を用いて ジェスチャ識別 紐の動きをセンシング 提案手法
  • 19. 19 実装:ハードウェア • 耳掛け型デバイス • マスクの紐と同時に耳に装着 • フォトリフレクタ(反射型光センサ) • 発光部と受光部から構成 • 発光部は赤外光を発光 • 受光部は赤外光を受光しセンサ値に • 6つのフォトリフレクタが搭載 • 2つ:ユーザの視線方向 • 4つ:ユーザの頭の外側方向 フォトリフレクタの配置 (a) デバイスのレール部と耳掛け部 (b) ユーザが装着している様子
  • 20. 20 実装:ソフトウェア • 識別の流れ センサ データ 6 35[fps] x 5[s] = 175 frames 画像データ Max Pooling (2 x 2 pixel) Convolution (32 filters) / ReLU Max Pooling (2 x 2 pixel) Convolution (64 filters) / ReLU Max Pooling (2 x 2 pixel) Convolution (128 filters) / ReLU Max Pooling (2 x 2 pixel) Fully Connected (1024 features) / ReLU Dropout (50%) Fully Connected (4 features) / Softmax Convolution (16 filters) / ReLU Image Input (6 x 175pixel) CNNモデルの構成 Min-max Normalization
  • 21. • 右耳にデバイスを装着 • 被験者一人当たり各ジェスチャ20回を取得 21 精度評価実験の概要 人数・性別 男性4名 年齢 平均 21.75歳 利き手 全員右手 実験参加者の属性 Upper-Up Lower-Up Lower-Down Upper-Down 識別するジェスチャ
  • 22. • 10分割交差検証 • 4ジェスチャ × 80枚の画像データ • 平均識別精度79.69% 22 精度評価実験の結果 識別精度
  • 23. • ひっぱるジェスチャしか識別できない • マイクや加速度センサなど他センサと併用 • 高精度化に向けて • センサの前処理,識別モデルの変更 • センサ数の増加や他センサとの併用 23 議論と制約
  • 24. 24 まとめ 背景 マスクの需要の拡大 関連研究 既存のマスク研究ではマスクにセンサを直接装着 提案 紐を用いた入力手法 マスクにセンサを付ける必要のない耳掛け型ハードウェア 実験 被験者にジェスチャを考案させるElicitation Studyにより ジェスチャセットを決定 実装 フォトリフレクタを用いた紐のセンシング CNNモデルによるジェスチャ識別 評価 識別精度79.69% 課題 識別可能なジェスチャが限定,低精度 他センサとの併用や前処理・モデルの改良 Upper-Up Lower-Up Lower-Down Upper-Down
  • 25. [Lin, 2022] Stephen Shiao-ru Lin, Nisal Menuka Gamage, Kithmini Herath, and Anusha Withana. 2022. MyoSpring: 3D Printing Mechanomyographic Sensors for Subtle Finger Gesture Recognition. In Sixteenth International Conference on Tangible, Embedded, and Embodied Interaction (TEI '22). Association for Computing Machinery, New York, NY, USA, Article 15, 1–13. [Yamashita, 2017] Koki Yamashita, Takashi Kikuchi, Katsutoshi Masai, Maki Sugimoto, Bruce H. Thomas, Yuta Sugiura, CheekInput: Turning Your Cheek into an Input Surface by Embedded Optical Sensors on a Head-mounted Display, In Proceedings of the 23rd ACM Symposium on Virtual Reality Software and Technology (VRST ’17), ACM, Article 19, 8 pages, November 8-10, 2017, Gothenburg, Sweden. [Kikuchi, 2017] Takashi Kikuchi, Yuta Sugiura, Katsutoshi Masai, Maki Sugimoto, Bruce H. Thomas, EarTouch: Turning the Ear into an Input Surface, In Proceedings of the 19th International Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI ’17). ACM, New York, NY, USA, Article 27, 6 pages. [Ogata, 2015] Masa Ogata and Michita Imai. 2015. SkinWatch: skin gesture interaction for smart watch. In Proceedings of the 6th Augmented Human International Conference (AH '15). Association for Computing Machinery, New York, NY, USA, 21–24. [Ogawa, 2021] Ryoma Ogawa, Kyosuke Futami, and Kazuya Murao. 2021. NasalBreathInput: A Hands-Free Input Method by Nasal Breath Gestures using a Glasses Type Device. In The 23rd International Conference on Information Integration and Web Intelligence (iiWAS2021). Association for Computing Machinery, New York, NY, USA, 620–624. [Masai, 2020] K. Masai, K. Kunze, D. Sakamoto, Y. Sugiura and M. Sugimoto, "Face Commands - User-Defined Facial Gestures for Smart Glasses," 2020 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2020, pp. 374-386, [Hashimoto, 2018] Takuma Hashimoto, Suzanne Low, Koji Fujita, Risa Usumi, Hiroshi Yanagihara, Chihiro Takahashi, Maki Sugimoto, Yuta Sugiura, TongueInput: Input Method by Tongue Gestures Using Optical Sensors Embedded in Mousepiece, In Proceedings of the SICE Annual Conference 2018, IEEE, 6 pages, September 11-14, 2018, Nara, Japan. [William, 2016] William Saunders and Daniel Vogel. 2016. Tap-Kick-Click: Foot Interaction for a Standing Desk. In Proceedings of the 2016 ACM Conference on Designing Interactive Systems (DIS '16). Association for Computing Machinery, New York, NY, USA, 323–333. [Kunimi, 2022] Yusuke Kunimi, Masa Ogata, Hirotaka Hiraki, Motoshi Itagaki, Shusuke Kanazawa, and Masaaki Mochimaru. 2022. E-MASK: A Mask-Shaped Interface for Silent Speech Interaction with Flexible Strain Sensors. In Augmented Humans 2022 (AHs 2022). Association for Computing Machinery, New York, NY, USA, 26–34. [Lee, 2020] Hyein Lee, Yoonji Kim, and Andrea Bianchi. 2020. MAScreen: Augmenting Speech with Visual Cues of Lip Motions, Facial Expressions, and Text Using a Wearable Display. In SIGGRAPH Asia 2020 Emerging Technologies(SA '20). Association for Computing Machinery, New York, NY, USA, Article 2, 1–2 [Kusabuka, 2020] Takahiro Kusabuka and Takuya Indo. 2020. IBUKI: Gesture Input Method Based on Breathing. In Adjunct Publication of the 33rd Annual ACM Symposium on User Interface Software and Technology (UIST '20 Adjunct). Association for Computing Machinery, New York, NY, USA, 102–104. 25 参考文献
  • 26. [Suzuki, 2020] Suzuki, Y., Sekimori, K., Yamato, Y., Yamasaki, Y., Shizuki, B., Takahashi, S. (2020). A Mouth Gesture Interface Featuring a Mutual-Capacitance Sensor Embedded in a Surgical Mask. In: Kurosu, M. (eds) Human-Computer Interaction. Multimodal and Natural Interaction. HCII 2020. Lecture Notes in Computer Science(), vol 12182. Springer, Cham. [Schwarz, 2010] Julia Schwarz, Chris Harrison, Scott Hudson, and Jennifer Mankoff. 2010. Cord input: an intuitive, high-accuracy, multi-degree-of-freedom input method for mobile devices. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '10). Association for Computing Machinery, New York, NY, USA, 1657–1660. [Olwal, 2018] Alex Olwal, Jon Moeller, Greg Priest-Dorman, Thad Starner, and Ben Carroll. 2018. I/O Braid: Scalable Touch-Sensitive Lighted Cords Using Spiraling, Repeating Sensing Textiles and Fiber Optics. In Proceedings of the 31st Annual ACM Symposium on User Interface Software and Technology (UIST '18). Association for Computing Machinery, New York, NY, USA, 485–497. [Shahmiri, 2019] Fereshteh Shahmiri, Chaoyu Chen, Anandghan Waghmare, Dingtian Zhang, Shivan Mittal, Steven L. Zhang, Yi-Cheng Wang, Zhong Lin Wang, Thad E. Starner, and Gregory D. Abowd. 2019. Serpentine: A Self-Powered Reversibly Deformable Cord Sensor for Human Input. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (CHI '19). Association for Computing Machinery, New York, NY, USA, Paper 545, 1–14. [Morris, 2010] Meredith Ringel Morris, Jacob O. Wobbrock, and Andrew D. Wilson. 2010. Understanding users' preferences for surface gestures. In Proceedings of Graphics Interface 2010 (GI '10). Canadian Information Processing Society, CAN, 261–268. [Vatavu, 2015] Radu-Daniel Vatavu and Jacob O. Wobbrock. 2015. Formalizing Agreement Analysis for Elicitation Studies: New Measures, Significance Test, and Toolkit. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (CHI '15). Association for Computing Machinery, New York, NY, USA, 1325–1334. [Fukahori, 2015] Koumei Fukahori, Daisukes Sakamoto, and Takeo Igarashi. 2015. Exploring Subtle Foot Plantar-based Gestures with Sock-placed Pressure Sensors. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (CHI '15). Association for Computing Machinery, New York, NY, USA, 3019–3028. 26 参考文献