Advertisement

衣服を引っ張る触覚を用いた小型デバイスによる姿勢誘導システム

Nov. 3, 2022
Advertisement

More Related Content

More from sugiuralab(20)

Advertisement

衣服を引っ張る触覚を用いた小型デバイスによる姿勢誘導システム

  1. 衣服を引っ張る触覚を用いた 小型デバイスによる姿勢誘導システム 第193回ヒューマンインタフェース学会研究会(SIGDeMO-14) 慶應義塾大学 理工学部 情報工学科 吉村凜, 上田雄斗, 杉浦裕太
  2. • 人は一日の大半を座って過ごす。 • その姿勢によってはさまざまな疾患を引き起こした り、疲れを増大させたりしてしまう。 • 例:猫背、反り腰 2 背景
  3. • デスクワーク中の姿勢の改善を促進 • 衣服を引っ張られる感覚は日常的に発生するため、特定 の方向への誘導情報になることが可能 • 視覚提示と比較し,触覚提示では「スクリーンを見る」 など自らが行動を起こすことが不要 • ランダムな位置に誘導できればほかの状況にも応用可能 • 視覚障碍者の誘導 3 目的
  4. • 衣服を引っ張る触覚提示を用いて姿勢を誘導 • モーションキャプチャを用いて位置を取得し、ランダム な目標位置に誘導するよう触覚に反映 • サーボモータの回転の動きをクリップや洗濯ばさみに与 え、衣服をつかんで引っ張る触覚を提示 4 提案手法
  5. • 椅子の座面の下に空気で膨らむクッションが入って おり、それが膨らんだり縮んだりする。 • 座面の傾きが変化 5 [1] Kazuyuki Fujita, Aoi Suzuki, Kazuki Takashima, Kaori Ikematsu, and Yoshifumi Kitamura. 2021. TiltChair: Manipulative Posture Guidance by Actively Inclining the Seat of an Office Chair. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (CHI '21). Association for Computing Machinery, New York, NY, USA, Article 228, 1–14. https://doi.org/10.1145/3411764.3445151 関連研究:TiltChair[1]
  6. • スクリーン自体を動かすことで自然に姿勢を誘導 6 [2] Joon-Gi Shin, Eiji Onchi, Maria Jose Reyes, Junbong Song, Uichin Lee, Seung-Hee Lee, and Daniel Saakes. 2019. Slow Robots for Unobtrusive Posture Correction. In CHI Conference on Human Factors in Computing Systems Proceedings (CHI 2019), May 4–9, 2019, Glasgow, Scotland UK. ACM, New York, NY, USA, 10 pages. https://doi.org/10.1145/3290605.3300843 関連研究:SlowRobots[2]
  7. • デバイスが大きく使用シーンがデスクワークに制限 • TiltChair • 座面の傾きが変化することが悪影響を及ぼすデスクワー クも存在 • 手書きや描画など精密性が求められる作業 • SlowRobots • 個人や状況に合わせた動きが課題 7 関連研究での課題
  8. 8 実装
  9. • ユーザの姿勢を計測するため、モーションキャプ チャで位置情報を取得 • ハードウェア:OptiTrack Trio • ソフトウェア:Motive • 剛体を、胴体と一体となって動く部分に装着 • 肩や首を想定 9 実装:モーションキャプチャ モーションキャプチャ用のカメラ マーカを貼り付けた剛体
  10. • Pythonに座標値を送り、それを基にArduinoとシリ アル通信 • 目標位置から離れている間、その位置関係からサー ボモータの角度を30度、90度、150度のいずれかと し、目標位置付近に到達したら引っ張りを終了 • 目標位置までの絶対値が3cm未満のとき、成功と設定 10 実装:ソフトウェア 剛体として認識し、位置座標がグラフ で取得できている様子
  11. • Pyqtで目標位置と現在位置をそれぞれ表示 • 点の位置を見ることで目標位置へ移動 11 実験:視覚提示
  12. • チョーカーにサーボモータを貼り付け、輪ゴムを通 じてクリップで衣服を挟む。 • 剛体は正面、サーボモータは背面にある状態 • 現在位置と目標位置との位置関係から30度、90度、 150度の3種類の角度を与え、引っ張る。 12 実験:触覚提示 剛体とサーボモータを装着している様子
  13. • 予備実験の結果(被験者21歳女性) • それぞれ実験を10回行い、その誘導時間を評価指標とし て取得 • 今後の展望 • 触覚提示をする箇所の候補を増やして実験 • どちらに引っ張られているかわかりづらいという意見 13 視覚提示 触覚提示 平均1.67 秒 (分散 0.07,標準偏差0.26) 平均 3.78 秒 (分散 9.10,標準偏差3.02) 結果
  14. • 視覚提示と触覚提示の比較 • 触覚提示より視覚提示の方が誘導時間が短いが、触覚提 示でも3~4秒の短い時間での誘導が可能 • ハードウェアの存在によるシステムの遅延も無視できな い可能性 • 衣服を引っ張られる感覚について • 衣服を引っ張られている感覚があり、意図した方向に移 動可能 • 一方、反作用的に首が逆方向に引っ張られることで混乱 する人も存在 14 考察
  15. • モーションキャプチャができる環境が必要 • 髪や衣服でマーカが隠れないことが前提 • 3つ以上のマーカが認識されない場合、剛体の位置座標が 取得不可能 • 処理量が多く、サーボモータへシリアル通信が行わ れない場合が存在 • プログラムが止まるわけではないが、成功率の向上が必 要 15 制約
  16. • ユーザの作業を阻害せずに誘導できれば触覚提示で も十分使用可能 • 個人差に対応する触覚提示位置の候補を増やし実験 • 処理量を減らすコード作成および手法考案 • 多次元で触覚を提示 • モーションキャプチャ以外のセンシング方法を提案 • より手軽に使用できる方法 16 今後の課題
  17. 17 まとめ 背景 デスクワークにおける悪姿勢による健康問題 関連研究 TiltChairやSlowRobotsによる姿勢誘導 提案 小型デバイスによる姿勢誘導 応用例 視覚障がい者の姿勢・進行方向誘導 実装 モーションキャプチャによるセンシングとサーボモータに よる触覚提示 評価 目標位置までの誘導時間を尺度として評価 結果 視覚提示平均1.67 秒 / 触覚提示平均 3.78 秒 課題 個人差に対応・処理量軽減・多次元での触覚提示
Advertisement