SlideShare a Scribd company logo
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と
IMUセンサによる耳タッチジェスチャの認識
慶 應 義 塾 大 学 * 北 海 道 大 学 * *
佐藤 優希菜* , 雨坂 宇宙* , 山本 匠*, 渡邉 拓貴**, 杉浦 裕太*
† †
†
Joint-first author
2
研究背景
• ヒアラブル(=ヒアラブルデバイス)
• 従来の音楽鑑賞や通話などの機能だけでなく、
様々な機能が付加された高機能なイヤホン型デバイス
• 今後より多くのアプリケーション/機能が搭載されると予想
• 現在のデバイス操作手法
• スマートフォンからの操作
• ユーザビリティの低下
• デバイス内蔵ボタン/センサ
• コマンド数に限りがある
ヒアラブルのみを用いたデバイス操作手法の拡張が求められる
音声アシスタント
音楽 オーディオ
サービス
ヘルストラッキング
ラジオ
メモ機能
通知設定
3
ヒアラブルを用いたデバイス操作手法
• ハンズフリー入力
• 音声認識/サイレントスピーチインタラクション/頭部ジェスチャ
• ノイズやウェイクワードの必要性、日常生活中での誤作動などの課題
• ハンズ入力
• デバイスへのハンズジェスチャによる入力
• 触覚フィードバックが得られる
• 直観的操作
• 誤作動に比較的頑健
ユーザ理解とハンズ入力手法の開発
当該の研究分野
4
関連研究1:ハンズ入力におけるユーザ理解
• 耳周辺のGesture Elicitation Study (GES)
• GES: ジェスチャ認識研究におけるジェスチャ決定手法
• GESを通して決定されたジェスチャ(ユーザ定義型ジェスチャ)は研究者による設計よりも好ましい [1]
耳周辺をインタラクション領域としたGES[2]
スマートウォッチとの
同時利用を想定したGES[3]
• ジェスチャの定義箇所に制限がない
• 空中ジェスチャなどが定義された場合、市販製品での実装が困難
• ヒアラブルのみを装着した状態のGESが未調査
[1] Vatavu, R.-D. and Wobbrock, J. O.: Formalizing Agreement Analysis for Elicitation Studies: New Measures, Significance Test, and Toolkit, CHI ’15. [2] Yu-Chun Chen, et.al,. 2020. Exploring User Defined
Gestures for Ear-Based Interactions. [3] Rateau, H., Lank, E. and Liu, Z.: Leveraging Smartwatch and Earbuds Gesture Capture to Support Wearable Interaction, IMWUT2022
5
関連研究2:ヒアラブル向けハンズ入力手法
静電容量式センサ[6]
反射型光センサ[5]
マイク[4]
• ノイズや屋外光の影響
• マスク着用時に利用できない
• デバイスへのセンサの追加
• ハンズジェスチャ時の音や耳変形をセンシング
• タッチエリアの拡張
[4] Xuhai Xu, et.al,. 2020. EarBuddy: Enabling On-Face Interaction via Wireless Earbuds. CHI ’20 [5] Taniguchi, K., et.al,.: Earable TEMPO: A Novel, Hands-Free Input Device that Uses the Movement of the Tongue
Measured with a Wearable Ear Sensor, Sensors, Vol. 18, No. 3 (2018). [6] Matthies, D. et.al,.: EarFieldSensing: A Novel In-Ear Electric Field Sensing to Enrich Wearable Gesture Input Through Facial Expressions, CHI ‘17
ヒアラブルへの入力を想定したGES
・ヒアラブル単体での利用を想定した調査
・インタフェースの制約やデバイス形状の差異を考慮
6
本研究の貢献
Aerial
Around Ear
Ear
Interaction Areas
Device Shape
x
y
z
Notification
on/off
Volume Up
Voice Assistant
on/off
Health Tracking
on/off
3-axis Rotation
IMUセンサを用いたジェスチャ認識システム
・ ヒアラブルとの親和性の高い慣性(IMU)センサ
・ユーザ定義型ジェスチャによる認識性能評価
貢献1
貢献2
実験方法:各タスクについてジェスチャを考案してもらう
タスク:先行研究 [4]と想定アプリケーションを基に27種を決定
手順:動画視聴・説明後にタスクごとのジェスチャ考案
発案時のルール
• 同グループ間でのジェスチャの重複は不可
• 技術的に実装可能かは考慮する必要なし
• 実験中はいつでもジェスチャを変更可能
• 右手のみ・左手のみ・両手の使用可
条件:インタフェースエリア(3条件)とデバイス形状(2種)
7
研究1:ヒアラブルへの入力を想定したGES
人数 19人
年齢 平均25.8歳
性別(男:女) 11:8
利き手 全員右利き
Gesture Elicitation study IMUを用いたジェスチャ認識
タスク一覧
参加者の属性情報
タスクグループ タスク
画面操作
上下左右にスクロール
ズームイン、アウト
最大化/最小化
ホーム画面に行く
次のアプリ、前のアプリ
進む、戻る
音楽再生
再生/停止
音量を上げる、下げる
次の曲、前の曲
電話
電話を切る/取る
電話を無視する
電話をかける
マイク on/off
スピーカ on/off
モード切替
音声アシスタント
ボイスメモ
カレンダーの予定確認
ヘルストラッキング機能
通知
実験者:
タスクの提示
参加者:
ジェスチャの考案
空中エリア
耳周辺
耳タッチ
• 複数条件でのGES
• インタフェース制約(3条件)とデバイス形状(2種)の計6条件でのGES
• インタフェース制約
• 制限なし(顔周りならどこでも定義可能)
• 空中エリア+耳周辺+耳タッチ
• タッチ条件(耳周辺および耳のいずれかに触れるジェスチャ)
• 耳周辺+耳タッチ
• 耳タッチ条件(耳が変形するジェスチャ)
• 耳タッチのみ
• デバイス形状
• インイヤー型デバイスと耳掛け型デバイス
• デバイスへのジェスチャはいずれの条件でも定義可能
8
条件説明
Elicitation study ジェスチャ認識
インタラクションエリア
デバイス形状
インイヤー型 耳掛け型
• 制限がない場合では空中でのジェスチャが好まれる
• 制限が加わると顔・首・胸へと定義先が分散する
• デバイスへのジェスチャ定義割合:耳掛け型>インイヤー型
• 耳輪、耳たぶ、耳珠、頬への定義が好まれる
9
実験結果:ジェスチャ定義の傾向
Elicitation study ジェスチャ認識
ジェスチャ定義されたインターフェース領域の割合
■ デバイス ■ 空中 ■ 顔、首、胸 ■ 耳
身体上の定義割合
• Agreement Rates (AR) :ジェスチャのユーザ全体の一致度を表す指標
10
実験結果:ジェスチャの一致度
Elicitation study ジェスチャ認識
(P:操作r に対する提案の集合)
各条件のARスコア一覧
AR一覧
インタフェース制約
AR
(インイヤー型)
AR
(耳掛け型)
制限なし条件 0.18 0.21
タッチ条件 0.15 0.20
耳タッチ条件 0.17 0.20
平均 0.17 0.20
ARが0.1 (中程度の一致率)以上のタスク割合:79.9%
AR:インイヤー型<耳掛け型
→デバイスが大きく分散が少なくなった
11
ユーザ定義型ジェスチャ:耳タッチ条件
Elicitation study ジェスチャ認識
耳タッチ条件のユーザ定義型ジェスチャ一覧
• ジェスチャが異なる9タスク(太字ペア)
• インイヤー型デバイス
• 全てが耳へのジェスチャ
• デバイスが小さく、耳への定義が好まれた
• 耳掛け型デバイス
• 内6タスクがデバイスへのジェスチャ
• 耳珠・耳輪・耳全体を使うジェスチャが避けら
れた
12
ユーザ定義型ジェスチャ:耳タッチ条件
Elicitation study ジェスチャ認識
耳タッチ条件のユーザ定義型ジェスチャ一覧
• ジェスチャが異なる9タスク(太字ペア)
• インイヤー型デバイス
• 全てが耳へのジェスチャ
• デバイスが小さく、耳への定義が好まれた
• 耳掛け型デバイス
• 内6タスクがデバイスへのジェスチャ
• 耳珠・耳輪・耳全体を使うジェスチャが避けら
れた
耳タッチジェスチャ(耳に触れるジェスチャ)を
研究2の認識ジェスチャとして利用する
• IMUセンサを用いた認識
• IMUセンサは空間音響再現やヘルストラッキングにも利用され、多くのイヤホンに内蔵
• 騒音や光などの外部環境の影響を受けない
• 機械学習を用いたジェスチャ分類システム
• 各データのDTWを計算
• k-NNを用いて予測データのラベルを決定
• 角速度の3軸(x,y,z)データのみを使用
13
研究2:IMUセンサを用いたジェスチャ認識システム
ジェスチャ認識
Elicitation study
システム概要図
14
ジェスチャ時の様子
• ユーザ定義型ジェスチャのうち耳の変形を伴うジェスチャを抽出
• デバイスタップなどのデバイスへのジェスチャは感圧センサで認識可能であり考慮しない
15
認識対象とするジェスチャセット
ジェスチャ認識
Elicitation study
インイヤー型9種類/耳掛け型6種類
• 実験デバイス
• インイヤー型デバイス
• AirPods Pro からAPIを介してデータ測定
• 耳掛け型デバイス
• 市販製品の筐体内部に9軸センサを配置
• センサと有線接続した ArduinoからPCへデータ送信
• 実験手順
• 座った状態で右耳にデバイスを装着
• 画面にランダムに表示されるジェスチャを実行
• 実験者が計測の開始・終了を指定
• デバイス着脱を挟んで合計12セット測定
• インイヤー型:108個(12×9ジェスチャ)
• 耳掛け型:72個(12×6ジェスチャ)
16
実装&実験説明
ジェスチャ認識
Elicitation study
人数 11人
年齢 平均26.8歳
性別(男/女) 11/5
利き手 全員右利き
参加者の属性
17
ジェスチャ認識結果
• 個人毎のジェスチャ分類モデルによる評価
• 12分割交差検証(leave-one-set-out cross-validation)
• インイヤー型デバイス:91.6%(F値)
• 耳掛け型デバイス:76.6% (F値)
ジェスチャ認識
Elicitation study
• 認識率:インイヤー型>耳掛け型
• 耳掛け型は似たジェスチャが多かった
• 耳輪や耳たぶの引っ張る方向の違い
• 耳掛け型は耳に接している面積が大きく安定した装着
• 耳の変位に対して得られるデバイスの変位が小さかった
• AR:耳掛け型>インイヤー型
• デバイスの面積が大きいとユーザ全体の一致率が高くなる
• 一方で、ジェスチャの認識が困難になる可能性
18
考察
ジェスチャ認識
Elicitation study
• 耳掛け型デバイスの認識性能向上
• サンプリングレートを上げる(30Hz→100Hz以上へ)
• データ拡張/モデル改良
• 一般モデルの実装
• 分類器の探索
• センサデータを画像化してCNNで分類
• ジェスチャ検出機能の実装
• 歩行状態などの実生活での評価
19
今後の方針
20
まとめ
背景 ヒアラブルのみを用いたデバイス操作手法が必要
関連研究
ヒアラブル向けハンズジェスチャ入力
ユーザ定義型ジェスチャ
提案
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査
IMUによる耳タッチジェスチャの認識
実験 6条件におけるElicitation study
実装 ヒアラブルのIMUを用いた耳変形のセンシング
結果
インイヤー型デバイス:精度91.6%
耳掛け型デバイス:精度76.6%
課題
耳掛け型デバイスの精度向上、一般モデルの実装
ジェスチャ検出の実装
歩行状態での精度検証
図
補足スライド
22
ユーザ定義型ジェスチャ
制限なし タッチ条件
23
センサデータ
24
ユーザ定義型ジェスチャすべての分類結果
25
ユースケース
26
補足資料:デバイスへの定義割合分類
デバイス上のジェスチャ位置と割合

More Related Content

Similar to ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識

特許取得した3D柔軟触覚センサの開発理由と手法
特許取得した3D柔軟触覚センサの開発理由と手法特許取得した3D柔軟触覚センサの開発理由と手法
特許取得した3D柔軟触覚センサの開発理由と手法
Asuka Kadowaki
 
探索的検索のための音声入力インタフェースの検討
探索的検索のための音声入力インタフェースの検討探索的検索のための音声入力インタフェースの検討
探索的検索のための音声入力インタフェースの検討
Takuya Nishimoto
 
生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned
生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned
生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned
sugiuralab
 
遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX
遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX
遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX
Kurata Takeshi
 
A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~
A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~
A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~
GoAzure
 
ipsj全国大会発表スライド_水野
ipsj全国大会発表スライド_水野ipsj全国大会発表スライド_水野
ipsj全国大会発表スライド_水野
siramatu-lab
 

Similar to ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識 (7)

特許取得した3D柔軟触覚センサの開発理由と手法
特許取得した3D柔軟触覚センサの開発理由と手法特許取得した3D柔軟触覚センサの開発理由と手法
特許取得した3D柔軟触覚センサの開発理由と手法
 
探索的検索のための音声入力インタフェースの検討
探索的検索のための音声入力インタフェースの検討探索的検索のための音声入力インタフェースの検討
探索的検索のための音声入力インタフェースの検討
 
生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned
生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned
生活に溶け込む人工知能による病気発見:医工連携におけるLessons Learned
 
遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX
遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX
遠隔リハビリ研究とオンライン学会運営から見たコミュニケーションDX
 
A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~
A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~
A 1-4 azure × metro style apps~ azure ではじめるmetro スタイル アプリ~
 
Protocol
ProtocolProtocol
Protocol
 
ipsj全国大会発表スライド_水野
ipsj全国大会発表スライド_水野ipsj全国大会発表スライド_水野
ipsj全国大会発表スライド_水野
 

More from sugiuralab

ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
sugiuralab
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
 
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェースSelfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
sugiuralab
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
sugiuralab
 
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
sugiuralab
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
sugiuralab
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
sugiuralab
 
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイスSkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
sugiuralab
 
バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析
sugiuralab
 
Converting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring CapacitanceConverting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring Capacitance
sugiuralab
 
Pinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic SensorPinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic Sensor
sugiuralab
 
Smartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing MotionsSmartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing Motions
sugiuralab
 
Tactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion TrajectoryTactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion Trajectory
sugiuralab
 
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective SensorsTouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
sugiuralab
 
Seeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow InputSeeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow Input
sugiuralab
 
Identification and Authentication Using Clavicles
Identification and Authentication Using ClaviclesIdentification and Authentication Using Clavicles
Identification and Authentication Using Clavicles
sugiuralab
 
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective SensorsEstimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
sugiuralab
 
バウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイスバウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイス
sugiuralab
 
A Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image ProjectionA Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image Projection
sugiuralab
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
sugiuralab
 

More from sugiuralab (20)

ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェースSelfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
Selfie WanD: 自撮り棒を動かすことによる撮影用入力インタフェース
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
EarAuthCam: Personal Identification and Authentication Method Using Ear Image...
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
 
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイスSkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
SkinRing: 装着方向に依らない指側面でのジェスチャ入力可能なリング型デバイス
 
バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析
 
Converting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring CapacitanceConverting Tatamis into Touch Sensors by Measuring Capacitance
Converting Tatamis into Touch Sensors by Measuring Capacitance
 
Pinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic SensorPinch Force Measurement Using a Geomagnetic Sensor
Pinch Force Measurement Using a Geomagnetic Sensor
 
Smartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing MotionsSmartphone-Based Teaching System for Neonate Soothing Motions
Smartphone-Based Teaching System for Neonate Soothing Motions
 
Tactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion TrajectoryTactile Presentation of Orchestral Conductor's Motion Trajectory
Tactile Presentation of Orchestral Conductor's Motion Trajectory
 
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective SensorsTouchLog: Finger Micro Gesture Recognition  Using Photo-Reflective Sensors
TouchLog: Finger Micro Gesture Recognition Using Photo-Reflective Sensors
 
Seeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow InputSeeing the Wind: An Interactive Mist Interface for Airflow Input
Seeing the Wind: An Interactive Mist Interface for Airflow Input
 
Identification and Authentication Using Clavicles
Identification and Authentication Using ClaviclesIdentification and Authentication Using Clavicles
Identification and Authentication Using Clavicles
 
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective SensorsEstimation of Violin Bow Pressure Using Photo-Reflective Sensors
Estimation of Violin Bow Pressure Using Photo-Reflective Sensors
 
バウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイスバウンサーを動かす外付けデバイス
バウンサーを動かす外付けデバイス
 
A Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image ProjectionA Virtual Window Using Curtains and Image Projection
A Virtual Window Using Curtains and Image Projection
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 

Recently uploaded

【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
Sony - Neural Network Libraries
 
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログLoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
CRI Japan, Inc.
 
Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)
Natsutani Minoru
 
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
Sony - Neural Network Libraries
 
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
ARISE analytics
 
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
chisatotakane
 
Matsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit IntroductionMatsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit Introduction
Matsuo Lab
 
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ..."ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
たけおか しょうぞう
 
論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...
論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...
論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...
Toru Tamaki
 
論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...
論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...
論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...
Toru Tamaki
 
Matsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit IntroductionMatsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit Introduction
Matsuo Lab
 
Kyndryl Developer Services のご紹介 2024年7月
Kyndryl Developer Services のご紹介  2024年7月Kyndryl Developer Services のご紹介  2024年7月
Kyndryl Developer Services のご紹介 2024年7月
Takayuki Nakayama
 
Matsuo-Iwasawa lab. Research Unit Introduction
Matsuo-Iwasawa lab. Research Unit IntroductionMatsuo-Iwasawa lab. Research Unit Introduction
Matsuo-Iwasawa lab. Research Unit Introduction
Matsuo Lab
 
20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf
Ayachika Kitazaki
 

Recently uploaded (14)

【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
 
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログLoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
 
Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)
 
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
 
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
 
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
 
Matsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit IntroductionMatsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit Introduction
 
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ..."ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
 
論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...
論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...
論文紹介:BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sen...
 
論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...
論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...
論文紹介:Task-aligned Part-aware Panoptic Segmentation through Joint Object-Part ...
 
Matsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit IntroductionMatsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit Introduction
 
Kyndryl Developer Services のご紹介 2024年7月
Kyndryl Developer Services のご紹介  2024年7月Kyndryl Developer Services のご紹介  2024年7月
Kyndryl Developer Services のご紹介 2024年7月
 
Matsuo-Iwasawa lab. Research Unit Introduction
Matsuo-Iwasawa lab. Research Unit IntroductionMatsuo-Iwasawa lab. Research Unit Introduction
Matsuo-Iwasawa lab. Research Unit Introduction
 
20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf
 

ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識