SlideShare a Scribd company logo

音楽信号処理における基本周波数推定を応用した心拍信号解析

梶谷奈未, "音楽信号処理における基本周波数推定を応用した心拍信号解析," 香川高等専門学校専攻科電気情報工学科コース 特別研究論文, 43 pages, 2022年1月.

1 of 21
Download to read offline
音楽信号処理における基本周波数推定を
応用した心拍信号解析
Heart rate analysis exploiting fundamental frequency
estimation in music signal processing
香川高等専門学校 創造工学専攻
北村研究室
2年 梶谷 奈未
2022/02/04 特別研究Ⅱ
研究背景
• 音楽信号解析で,観測信号から音の高さ(基本周波数)
を推定する問題は一大トピック
• 信号の基本周波数の推定問題は,多くのメディア信号で
見られる問題
– 生体信号処理において,計測波形から心拍を推定する問題も
基本周波数推定問題の1つ
• 音楽信号解析における代表的な4つの基本周波数推定
法を生体信号解析に適用し有効性を検証
2
本研究の動機と目的
3
• 生体信号処理における基本周波数推定
– ゼロクロス法による簡易的な周期推定を用いていた
• デッドタイムの設定は手動
• 音楽信号処理における基本周波数推定
– 歴史的に長く研究され多様な手法が提案されている
• 本研究の目的
– 音楽信号処理の分野で確立された代表的な基本周波数推定
法を付け爪型センサのPPGに適用
• 周期性に基づく手法:正規化自己相関関数法(NCF法) [B. S. Atal, 1972]
• 周波数領域に基づく手法:ケプストラム法 [IEEE ASSP, 1979]
• 時間シフト量に基づく手法:YIN法 [A. Cheveigne+, 2002]
• 時間領域に基づく手法:MUSIC法 [M. G. Christensen+, 2004]
デッドタイム 心拍の周期
時間
• 計測条件
– 計測期間:24時間(2018年5月2日18:00~5月3日18:00)
– サンプリング周波数:1kHz(測定後20Hzにリサンプル)
– 被験者:30代男性
– 計測部位:左手の親指
– 参考値:胸部に付けた電極から心電信号(ECG)を取得
PPGの計測実験
4
データロガー
(FL-500SD)
単四電池
(二本)で駆動
有線接続
PPGの計測実験
5
睡眠① 運動① 睡眠② 運動②
PPG(04:00)
ECG(04:00)
PPG(07:18)
ECG(07:18)
PPG(14:15)
ECG(14:15)
PPG
(爪)
ECG
(胸)
• 30次Butterworth IIRディジタルフィルタ(HPS)
– カットオフ周波数:0.3Hz
• 短時間区間信号に分割
基本周波数推定法:観測信号の前処理
6
𝑥s 𝑖, 𝑙 = 𝑥[𝑙 + 𝑖 − 1 𝑆]
𝑥s[1, 𝑙]
𝑥[𝑡]
𝑥s[2, 𝑙]
𝑥s[3, 𝑙]
・・・
𝑆:シフト長
𝐿:短時間区間長
𝑙 = 1, 2, … , 𝐿:1つの短時間区間内の時間インデクス
𝑖 = 1, 2, … , 𝐼:短時間区間のインデクス
シフト長
𝑡 = 1, 2, … , 𝑇:時間のインデクス
𝑥𝑟𝑎𝑤 𝑡
Butterworth
IIRディジタル
フィルタ
𝑥 𝑡
𝑡 = 1, 2, … , 𝑇:時間のインデクス

Recommended

付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定Kitamura Laboratory
 
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析Shinnosuke Takamichi
 
音源分離における音響モデリング(Acoustic modeling in audio source separation)
音源分離における音響モデリング(Acoustic modeling in audio source separation)音源分離における音響モデリング(Acoustic modeling in audio source separation)
音源分離における音響モデリング(Acoustic modeling in audio source separation)Daichi Kitamura
 
音情報処理における特徴表現
音情報処理における特徴表現音情報処理における特徴表現
音情報処理における特徴表現NU_I_TODALAB
 
独立深層学習行列分析に基づく多チャネル音源分離の実験的評価(Experimental evaluation of multichannel audio s...
独立深層学習行列分析に基づく多チャネル音源分離の実験的評価(Experimental evaluation of multichannel audio s...独立深層学習行列分析に基づく多チャネル音源分離の実験的評価(Experimental evaluation of multichannel audio s...
独立深層学習行列分析に基づく多チャネル音源分離の実験的評価(Experimental evaluation of multichannel audio s...Daichi Kitamura
 
音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみる音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみるKen'ichi Matsui
 
独立低ランク行列分析に基づく音源分離とその発展
独立低ランク行列分析に基づく音源分離とその発展独立低ランク行列分析に基づく音源分離とその発展
独立低ランク行列分析に基づく音源分離とその発展Kitamura Laboratory
 

More Related Content

What's hot

独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...Daichi Kitamura
 
深層学習を利用した音声強調
深層学習を利用した音声強調深層学習を利用した音声強調
深層学習を利用した音声強調Yuma Koizumi
 
非負値行列因子分解を用いた被り音の抑圧
非負値行列因子分解を用いた被り音の抑圧非負値行列因子分解を用いた被り音の抑圧
非負値行列因子分解を用いた被り音の抑圧Kitamura Laboratory
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元NU_I_TODALAB
 
調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離
調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離
調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離Kitamura Laboratory
 
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...Daichi Kitamura
 
論文紹介 Unsupervised training of neural mask-based beamforming
論文紹介 Unsupervised training of neural  mask-based beamforming論文紹介 Unsupervised training of neural  mask-based beamforming
論文紹介 Unsupervised training of neural mask-based beamformingShinnosuke Takamichi
 
スペクトログラム無矛盾性に基づく独立低ランク行列分析
スペクトログラム無矛盾性に基づく独立低ランク行列分析スペクトログラム無矛盾性に基づく独立低ランク行列分析
スペクトログラム無矛盾性に基づく独立低ランク行列分析Kitamura Laboratory
 
複数話者WaveNetボコーダに関する調査
複数話者WaveNetボコーダに関する調査複数話者WaveNetボコーダに関する調査
複数話者WaveNetボコーダに関する調査Tomoki Hayashi
 
実環境音響信号処理における収音技術
実環境音響信号処理における収音技術実環境音響信号処理における収音技術
実環境音響信号処理における収音技術Yuma Koizumi
 
深層学習に基づく音響特徴量からの振幅スペクトログラム予測
深層学習に基づく音響特徴量からの振幅スペクトログラム予測深層学習に基づく音響特徴量からの振幅スペクトログラム予測
深層学習に基づく音響特徴量からの振幅スペクトログラム予測Kitamura Laboratory
 
音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3
音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3
音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3Naoya Takahashi
 
音声の声質を変換する技術とその応用
音声の声質を変換する技術とその応用音声の声質を変換する技術とその応用
音声の声質を変換する技術とその応用NU_I_TODALAB
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...Daichi Kitamura
 
サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価
サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価
サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価Shinnosuke Takamichi
 
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析Junya Koguchi
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離NU_I_TODALAB
 
深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討Kitamura Laboratory
 
Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討Shinnosuke Takamichi
 

What's hot (20)

独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
 
深層学習を利用した音声強調
深層学習を利用した音声強調深層学習を利用した音声強調
深層学習を利用した音声強調
 
非負値行列因子分解を用いた被り音の抑圧
非負値行列因子分解を用いた被り音の抑圧非負値行列因子分解を用いた被り音の抑圧
非負値行列因子分解を用いた被り音の抑圧
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
 
調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離
調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離
調波打撃音分離の時間周波数マスクを用いた線形ブラインド音源分離
 
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
独立深層学習行列分析に基づく多チャネル音源分離(Multichannel audio source separation based on indepen...
 
論文紹介 Unsupervised training of neural mask-based beamforming
論文紹介 Unsupervised training of neural  mask-based beamforming論文紹介 Unsupervised training of neural  mask-based beamforming
論文紹介 Unsupervised training of neural mask-based beamforming
 
音声分析合成[1].pptx
音声分析合成[1].pptx音声分析合成[1].pptx
音声分析合成[1].pptx
 
スペクトログラム無矛盾性に基づく独立低ランク行列分析
スペクトログラム無矛盾性に基づく独立低ランク行列分析スペクトログラム無矛盾性に基づく独立低ランク行列分析
スペクトログラム無矛盾性に基づく独立低ランク行列分析
 
複数話者WaveNetボコーダに関する調査
複数話者WaveNetボコーダに関する調査複数話者WaveNetボコーダに関する調査
複数話者WaveNetボコーダに関する調査
 
実環境音響信号処理における収音技術
実環境音響信号処理における収音技術実環境音響信号処理における収音技術
実環境音響信号処理における収音技術
 
深層学習に基づく音響特徴量からの振幅スペクトログラム予測
深層学習に基づく音響特徴量からの振幅スペクトログラム予測深層学習に基づく音響特徴量からの振幅スペクトログラム予測
深層学習に基づく音響特徴量からの振幅スペクトログラム予測
 
音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3
音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3
音源分離 ~DNN音源分離の基礎から最新技術まで~ Tokyo bishbash #3
 
音声の声質を変換する技術とその応用
音声の声質を変換する技術とその応用音声の声質を変換する技術とその応用
音声の声質を変換する技術とその応用
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
 
サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価
サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価
サブバンドフィルタリングに基づくリアルタイム広帯域DNN声質変換の実装と評価
 
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離
 
深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討
 
Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討
 

Similar to 音楽信号処理における基本周波数推定を応用した心拍信号解析

HP用スライド
HP用スライドHP用スライド
HP用スライドSyouma Kuroda
 
基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)
基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)
基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)Daichi Kitamura
 
局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価
局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価
局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価Kitamura Laboratory
 
高効率音声符号化―MP3詳解―
高効率音声符号化―MP3詳解―高効率音声符号化―MP3詳解―
高効率音声符号化―MP3詳解―Akinori Ito
 
調波打撃音モデルに基づく線形多チャネルブラインド音源分離
調波打撃音モデルに基づく線形多チャネルブラインド音源分離調波打撃音モデルに基づく線形多チャネルブラインド音源分離
調波打撃音モデルに基づく線形多チャネルブラインド音源分離Kitamura Laboratory
 
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...Daichi Kitamura
 
多重解像度時間周波数表現に基づく独立低ランク行列分析,
多重解像度時間周波数表現に基づく独立低ランク行列分析,多重解像度時間周波数表現に基づく独立低ランク行列分析,
多重解像度時間周波数表現に基づく独立低ランク行列分析,Kitamura Laboratory
 

Similar to 音楽信号処理における基本周波数推定を応用した心拍信号解析 (11)

音声分析合成[2].pptx
音声分析合成[2].pptx音声分析合成[2].pptx
音声分析合成[2].pptx
 
HP用スライド
HP用スライドHP用スライド
HP用スライド
 
卒業研究kuroda
卒業研究kuroda卒業研究kuroda
卒業研究kuroda
 
基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)
基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)
基底変形型教師ありNMFによる実楽器信号分離 (in Japanese)
 
音声分析合成[3].pptx
音声分析合成[3].pptx音声分析合成[3].pptx
音声分析合成[3].pptx
 
局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価
局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価
局所時間周波数構造に基づく深層パーミュテーション解決法の実験的評価
 
高効率音声符号化―MP3詳解―
高効率音声符号化―MP3詳解―高効率音声符号化―MP3詳解―
高効率音声符号化―MP3詳解―
 
音声分析合成[4].pptx
音声分析合成[4].pptx音声分析合成[4].pptx
音声分析合成[4].pptx
 
調波打撃音モデルに基づく線形多チャネルブラインド音源分離
調波打撃音モデルに基づく線形多チャネルブラインド音源分離調波打撃音モデルに基づく線形多チャネルブラインド音源分離
調波打撃音モデルに基づく線形多チャネルブラインド音源分離
 
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
 
多重解像度時間周波数表現に基づく独立低ランク行列分析,
多重解像度時間周波数表現に基づく独立低ランク行列分析,多重解像度時間周波数表現に基づく独立低ランク行列分析,
多重解像度時間周波数表現に基づく独立低ランク行列分析,
 

More from Kitamura Laboratory

付け爪センサによる生体信号を用いた深層学習に基づく心拍推定
付け爪センサによる生体信号を用いた深層学習に基づく心拍推定付け爪センサによる生体信号を用いた深層学習に基づく心拍推定
付け爪センサによる生体信号を用いた深層学習に基づく心拍推定Kitamura Laboratory
 
STEM教育を目的とした動画像処理による二重振り子の軌跡推定
STEM教育を目的とした動画像処理による二重振り子の軌跡推定STEM教育を目的とした動画像処理による二重振り子の軌跡推定
STEM教育を目的とした動画像処理による二重振り子の軌跡推定Kitamura Laboratory
 
ギタータブ譜からのギターリフ抽出アルゴリズム
ギタータブ譜からのギターリフ抽出アルゴリズムギタータブ譜からのギターリフ抽出アルゴリズム
ギタータブ譜からのギターリフ抽出アルゴリズムKitamura Laboratory
 
時間微分スペクトログラムに基づくブラインド音源分離
時間微分スペクトログラムに基づくブラインド音源分離時間微分スペクトログラムに基づくブラインド音源分離
時間微分スペクトログラムに基づくブラインド音源分離Kitamura Laboratory
 
Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...
Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...
Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...Kitamura Laboratory
 
周波数双方向再帰に基づく深層パーミュテーション解決法
周波数双方向再帰に基づく深層パーミュテーション解決法周波数双方向再帰に基づく深層パーミュテーション解決法
周波数双方向再帰に基づく深層パーミュテーション解決法Kitamura Laboratory
 
Heart rate estimation of car driver using radar sensors and blind source sepa...
Heart rate estimation of car driver using radar sensors and blind source sepa...Heart rate estimation of car driver using radar sensors and blind source sepa...
Heart rate estimation of car driver using radar sensors and blind source sepa...Kitamura Laboratory
 
DNN-based frequency-domain permutation solver for multichannel audio source s...
DNN-based frequency-domain permutation solver for multichannel audio source s...DNN-based frequency-domain permutation solver for multichannel audio source s...
DNN-based frequency-domain permutation solver for multichannel audio source s...Kitamura Laboratory
 
双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価
双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価
双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価Kitamura Laboratory
 
深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討
深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討
深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討Kitamura Laboratory
 
コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離
コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離
コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離Kitamura Laboratory
 
Linear multichannel blind source separation based on time-frequency mask obta...
Linear multichannel blind source separation based on time-frequency mask obta...Linear multichannel blind source separation based on time-frequency mask obta...
Linear multichannel blind source separation based on time-frequency mask obta...Kitamura Laboratory
 
Prior distribution design for music bleeding-sound reduction based on nonnega...
Prior distribution design for music bleeding-sound reduction based on nonnega...Prior distribution design for music bleeding-sound reduction based on nonnega...
Prior distribution design for music bleeding-sound reduction based on nonnega...Kitamura Laboratory
 
Blind audio source separation based on time-frequency structure models
Blind audio source separation based on time-frequency structure modelsBlind audio source separation based on time-frequency structure models
Blind audio source separation based on time-frequency structure modelsKitamura Laboratory
 
独立成分分析に基づく信号源分離精度の予測
独立成分分析に基づく信号源分離精度の予測独立成分分析に基づく信号源分離精度の予測
独立成分分析に基づく信号源分離精度の予測Kitamura Laboratory
 
深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化
深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化
深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化Kitamura Laboratory
 
独立低ランク行列分析を用いたインタラクティブ音源分離システム
独立低ランク行列分析を用いたインタラクティブ音源分離システム独立低ランク行列分析を用いたインタラクティブ音源分離システム
独立低ランク行列分析を用いたインタラクティブ音源分離システムKitamura Laboratory
 
基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用
基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用
基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用Kitamura Laboratory
 
コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用
コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用
コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用Kitamura Laboratory
 
ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発
ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発
ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発Kitamura Laboratory
 

More from Kitamura Laboratory (20)

付け爪センサによる生体信号を用いた深層学習に基づく心拍推定
付け爪センサによる生体信号を用いた深層学習に基づく心拍推定付け爪センサによる生体信号を用いた深層学習に基づく心拍推定
付け爪センサによる生体信号を用いた深層学習に基づく心拍推定
 
STEM教育を目的とした動画像処理による二重振り子の軌跡推定
STEM教育を目的とした動画像処理による二重振り子の軌跡推定STEM教育を目的とした動画像処理による二重振り子の軌跡推定
STEM教育を目的とした動画像処理による二重振り子の軌跡推定
 
ギタータブ譜からのギターリフ抽出アルゴリズム
ギタータブ譜からのギターリフ抽出アルゴリズムギタータブ譜からのギターリフ抽出アルゴリズム
ギタータブ譜からのギターリフ抽出アルゴリズム
 
時間微分スペクトログラムに基づくブラインド音源分離
時間微分スペクトログラムに基づくブラインド音源分離時間微分スペクトログラムに基づくブラインド音源分離
時間微分スペクトログラムに基づくブラインド音源分離
 
Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...
Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...
Amplitude spectrogram prediction from mel-frequency cepstrum coefficients and...
 
周波数双方向再帰に基づく深層パーミュテーション解決法
周波数双方向再帰に基づく深層パーミュテーション解決法周波数双方向再帰に基づく深層パーミュテーション解決法
周波数双方向再帰に基づく深層パーミュテーション解決法
 
Heart rate estimation of car driver using radar sensors and blind source sepa...
Heart rate estimation of car driver using radar sensors and blind source sepa...Heart rate estimation of car driver using radar sensors and blind source sepa...
Heart rate estimation of car driver using radar sensors and blind source sepa...
 
DNN-based frequency-domain permutation solver for multichannel audio source s...
DNN-based frequency-domain permutation solver for multichannel audio source s...DNN-based frequency-domain permutation solver for multichannel audio source s...
DNN-based frequency-domain permutation solver for multichannel audio source s...
 
双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価
双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価
双方向LSTMによるラウドネス及びMFCCからの振幅スペクトログラム予測と評価
 
深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討
深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討
深層ニューラルネットワークに基づくパーミュテーション解決法の基礎的検討
 
コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離
コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離
コサイン類似度罰則条件付き非負値行列因子分解に基づく音楽音源分離
 
Linear multichannel blind source separation based on time-frequency mask obta...
Linear multichannel blind source separation based on time-frequency mask obta...Linear multichannel blind source separation based on time-frequency mask obta...
Linear multichannel blind source separation based on time-frequency mask obta...
 
Prior distribution design for music bleeding-sound reduction based on nonnega...
Prior distribution design for music bleeding-sound reduction based on nonnega...Prior distribution design for music bleeding-sound reduction based on nonnega...
Prior distribution design for music bleeding-sound reduction based on nonnega...
 
Blind audio source separation based on time-frequency structure models
Blind audio source separation based on time-frequency structure modelsBlind audio source separation based on time-frequency structure models
Blind audio source separation based on time-frequency structure models
 
独立成分分析に基づく信号源分離精度の予測
独立成分分析に基づく信号源分離精度の予測独立成分分析に基づく信号源分離精度の予測
独立成分分析に基づく信号源分離精度の予測
 
深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化
深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化
深層学習に基づく間引きインジケータ付き周波数帯域補間手法による音源分離処理の高速化
 
独立低ランク行列分析を用いたインタラクティブ音源分離システム
独立低ランク行列分析を用いたインタラクティブ音源分離システム独立低ランク行列分析を用いたインタラクティブ音源分離システム
独立低ランク行列分析を用いたインタラクティブ音源分離システム
 
基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用
基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用
基底共有型非負値行列因子分解に基づく楽器音の共通・固有成分の分析と音色変換への応用
 
コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用
コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用
コサイン類似度罰則条件付き半教師あり非負値行列因子分解と音源分離への応用
 
ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発
ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発
ユーザーからの補助情報を用いるインタラクティブ音源分離システムの開発
 

音楽信号処理における基本周波数推定を応用した心拍信号解析

Editor's Notes

  1. [00:05] それでは,こちらのタイトルで北村研究室の梶谷が発表いたします.
  2. [01:13] 音楽信号解析において,ボーカルや楽器音等の観測信号から音の高さ(基本周波数)を推定する問題は 一大トピックであり,これまで多様な手法が提案されています. 本来,信号の基本周波数の推定問題自体は, 音響信号のみならず多くのメディア信号で見られる問題であり,生体信号処理においては計測波形から 心拍を推定する問題も本質的に基本周波数推定問題です. 一方で,在宅医療では,患者の健康管理のために遠隔でモニタリングを行うことが重要です. 本研究では,付け爪型センサで得られる光電脈波信号(PPG)から心拍を推定するために,音楽信号解析における代表的な 4 つの基本周波数推定法を適用し,生体信号の解析における有効性を検証します. こちらの写真は付け爪型センサの回路図と爪表面に固定した写真になります. 回路基板はジェルネイル等で固定できます. この写真では有線で接続していますが,本来は無線で送信しますので,爪の上だけで完結するデバイスになります.
  3. [02:13] それでは,本研究の動機と目的について説明します. 付け爪型センサデバイスが提案された論文では,爪から得られたPPGに対して,ゼロクロス法と呼ばれる非常に原始的な手法が使われています. ゼロクロス法とは,正負が反転しているサンプルの間隔を信号の周期として求める手法であり,図のように正負反転を検知しないデッドタイムを設ける必要があります. デッドタイムの設定は手動なので,推定精度はあまり高くないことが予想されます. 一方で,音楽信号処理の分野では基本周波数推定は歴史的に長く研究されており,非常に様々な手法が提案されてきました. そこで,本研究では,音楽信号処理の基本周波数推定法が生体信号処理にも有効かどうかについて調べています. そして,音楽信号処理の分野で確立された代表的な4つの基本周波数推定法を用いてPPGの心拍を推定したときの結果の精度を比較します.
  4. [02:36] 本研究で解析対象となるPPGの測定条件について説明します. 計測期間は24時間であり,サンプリング周波数は1kHzで測定しました. 被験者は30代男性で,左手親指の爪にセンサを取り付けました. また,心拍の参考値を得る目的で,胸部に付けた電極から「心電信号」,いわゆるECGを取得しました.
  5. [03:45] こちらは計測した波形の一つです. 上の青の波形が付け爪型センサから得られたPPGであり,下のオレンジの波形が胸部に着けた電極から得られたECGです. 横軸は24時間であり,縦軸は電圧値です. この計測では, (1回クリック) このように睡眠と運動をしている期間が2回ずつあります.これ以外の時間は通常の日常的な活動をしています. まず,PPGの波形は体動のせいで多くの時間で計測器のレンジを超え,クリッピングしています. 心拍由来の爪の色の変化は微弱であり,例えば指を押しただけでその何十倍もの色の変化が起きます. 従って,体動由来の信号がクリッピングの原因です. ECGも同様に,睡眠時以外は体動由来の成分が大きく混入しています. (1回クリック) こちらは時間軸を拡大したもので,睡眠状態の波形です. これを見ると,ECGもPPGも心拍に由来する信号が計測できています (1回クリック) 次に,起床後の活動時の波形です. こちらも,体動の影響がない時間ではやはり心拍由来の成分が見えます. (1回クリック) 最後に,これはランニング中の波形です. 激しい体動が生じる場合は,心拍由来の成分は完全に見えなくなります.
  6. [04:47] ここで,本研究において観測したPPGに適用した前処理について解説します. 前処理として,観測信号に対し,直流成分の除去と短時間区間への分割を行います. PPGとして測定される電圧波形には直流成分が含まれています. 基本周波数を解析する上では,この直流成分を事前に除去しておくことが望ましいため,前処理としてハイパスフィルタを適用します. 本研究では,30次のButterworth IIRディジタルフィルタを用いて,信号x[t]に変換しました. この時,カットオフ周波数は0.3 Hzに設定しています. フィルタリングした信号x[t]を, (3回続けてクリック) このような短時間区間信号に分割し,xsという信号を定義します.このとき, (2回続けてクリック) 短時間区間長をLと定義し,また短時間区間のシフト長をSと定義します. 小文字のiは短時間区間の番号を表しています. 本手法では,1つの短時間区間に対して1つの心拍値を推定していきます. (バタワースフィルタ:通過域の振幅特性ができるだけフラットになる)
  7. [05:32] それでは,これから,4つの基本周波数推定法の説明をさせていただきます. まず,NCF法から説明します. NCF法は,自己相関関数を用いて信号の基本周期 を求める手法です. 自己相関関数とは,波形を時間シフトさせる前後で相関係数を算出したものであり,時間シフト量tauに対する関数となります. 周期波形では 1 周期シフトすると相関係数が 1 となります. 心拍は基本的に周期波形であるため,自己相関関数にはシフト量に応じて,こちらの図のように, (2回クリック) 複数個のピークが現れます. 従って,自己相関関数の最初のピーク点のシフト量が波形の基本周期となり,その逆数が基本周波数です.
  8. [06:11] 次に,ケプストラム法について説明します. ケプストラム法とは,信号の対数振幅スペクトルをもう一度周波数分析する解析手法です. 対数振幅スペクトルのスペクトルは「ケプストラム」と呼ばれます. ☆ まず,短時間区間信号xsに窓関数をかけてDFTを適用し,左の図のように,スペクトルFを算出します. このスペクトルFの対数振幅を,もう一度DFTすると,右図のように、ケプストラムCが得られます. このようにケプストラムの低周波成分が基本周波数に対応します. このケプストラムを短時間区間ごとに求めると ☆☆☆
  9. [06:21] ☆ 左下の図のように、横軸が時間、縦軸がケプストラムのグラフが得られます。 時間ごとにピークをとっていくことで心拍が得られます。 ☆☆☆
  10. [07:11] 次に,YIN法について説明します. YIN 法は話者やボーカル等,人間の音声の基本周波数を推定するために提案された手法です. こちらの手法では,波形を時間シフトさせる前後で二乗誤差を算出し,時間シフト量に対する誤差関数を定義します. この誤差関数の正規化累積平均を求めた後に閾値処理し,閾値以下となる時間シフト量を検出します. ここで,正規化累積平均は, (1回クリック) 誤差関数で求めた値の総平均Nを求め,これを正規化することにより算出できます. また,閾値処理で設定する値は通常0.1~0.15とされます. このシフト量が波形の基本周期となり,その逆数が基本周波数です.
  11. [07:47] 続いて,MUSIC法について説明します. ☆ この手法では,左の式のように,短時間区間信号xsが信号sとノイズρ(ロー)の和であると仮定します. 信号sは基本周波数foとその整数倍の周波数を持つ正弦波と仮定され,合計N個の正弦波の合成となっています. ☆☆☆ (1回クリック) この場合,sの部分空間は高々2N個の固有成分を持つことになります. この信号モデルから,下に示す3ステップで基本周波数foを推定します.
  12. [08:20] 最初のステップは,各短時間区間における観測信号xsの標本相関行列を算出します. この紫の波形は,前処理で得られた1つの短時間区間信号を表しています. このxsを (3回続けてクリック) このように部分信号に分解し,ベクトルxとして定義します. (2回続けてクリック) この時の部分信号長をK,シフト長をPと定義しています. (1回クリック) そして,各ベクトルの瞬時相関行列を計算し, (1回クリック) 短時間区間内で平均化することで,観測の標本相関行列Riが計算できます.
  13. [08:44] この標本相関行列Riを固有値分解し,信号とノイズの部分空間を推定します. Riを固有値分解すると,図のように,固有値と固有ベクトルが得られます. (1回クリック) 信号がノイズよりも十分大きい場合,最大固有値から2N番目の固有値までが信号の部分空間を表し,残りがノイズの部分空間となります.
  14. [09:05] 最後に,MUSICスペクトルと呼ばれる値を算出します. これは,ノイズの固有ベクトルをDFTし,そのパワーを総和して,分数の分母に置いたものです. ☆ MUSICスペクトルは信号に含まれる正弦波の周波数で鋭いピークを持ちます. このピークを短時間区間ごとに求め,心拍を推定できます. ☆☆☆
  15. [09:36] 続いて,本実験で用いた評価指標について解説します. 本実験では,各手法の精度をより明確に比較するために,4つの評価指標を用いました. ここでは,それぞれの評価指標の定義について解説します. まず,1つ目は,平均二乗誤差(MSE)です. これは正解値ho[i]と推定値h^o[i]の二乗誤差を算出し,この平均をとったものになります. 2つ目の指標である平方平均二乗誤差(RMS)は,MSEの平方根となります.
  16. [09:56] 3つ目の指標は,グロスピッチ誤差(GPE)です. こちらは,信号全体の長さを100%としたとき,推定値が,どの程度の割合で真値との誤差範囲から外れているかの割合を示しています. したがって,この評価値が小さいほど,信号全体の推定精度が高いことが分かります.
  17. [10:50] 4つ目の指標は,ファインピッチ誤差(FPE)です. こちらは,GPEとは逆に,推定値が真値との誤差範囲内にある値にのみ着目します. (1回クリック) この範囲内の推定値が,それぞれ真値からどの程度離れているのかを調べて,その標準偏差を算出したものになります. 従ってFPEからは,GPEから算出された,大まかに推定できている短時間区間にのみ着目し,この区間における,より詳細な推定精度を確認することができます. したがって,この評価値が小さいほど,真値と推定値が近い値となる短時間区間においてのより詳細な推定精度が高いということが分かります. これより,GPEとFPEは,ともに小さい値を示している場合のみ,信頼できる値となります. 本実験では,以上の4つの評価指標を用いて,各手法の推定精度をより明確に比較しました.
  18. [10:54] 実験条件はこちらです. 入力信号は最初にお見せしたPPGとなります.
  19. [11:44] こちらはPPGに4つの手法を適用した際の,手法毎の心拍推定結果です. まず,上のグラフは真値となるECG波形です. 上から順に,図(a)がNCF法,図(b)がケプストラム法,図(c)がYIN法,そして図(d)がMUSIC法をPPGに適用した際の心拍推定結果です. 各波形の横軸は時間であり,縦軸は推定心拍です. また,ラベリングした時間帯では,睡眠や運動を行っています. いずれの手法も,7~13 時付近の睡眠時は尤もらしい心拍が高精度で推定できていることが確認できますが,通常活動時は値を確認することが難しく,推定が困難でした. そこで,評価指標を用いて,さらに詳細に結果を見ていきたいと思います.
  20. [13:15] こちらは,PPGに4手法を適用した際の,手法毎の心拍推定結果の信頼性を評価したものです. いずれの手法も評価値が小さいほど精度が高いことを示します. 左の青とオレンジのグラフは,それぞれ誤差率を0.20と設定した際のGPEとFPEの評価結果であり,横軸は基本周波数推定法,縦軸は評価値を表しています. また,表においては,4つの推定法のうち,評価精度が最も高い値をそれぞれ太字で示しています. まず,青のグラフを見ると,GPEの精度は,ケプストラム法が明らかに高精度であることが分かります. また,オレンジのグラフを見ると,FPEの精度はいずれも評価値が小さく,すべて高精度に測定できていることが分かります. ここで,右の表を見ると,FPEの値も僅差ながら,ケプストラム法が最も高精度に推定できているといえます. さらに,誤差率を変化させた場合や,その他の評価指標における結果についても,表から,ケプストラム法が最も高精度であることが分かります. 以上のことから,ケプストラム法が最も推定精度が良いといえます. しかし,ここでは時間の関係で紹介できていませんが,他のデータでは異なる結果も現れており,各手法には一長一短があるということも確認できています. したがって,活動シーンに合わせて手法を切り替えられるシステムがあれば,より実用的に利用できるようになると考えられます.
  21. [13:46] (「最後に,本研究のまとめがこちらです.以上で終わります.ご清聴ありがとうございました」) 最後にまとめです. 本発表では,付け爪型センサで得られたPPGから心拍を推定することを目的とし,既存の基本周波数推定法を4種類適用しました. 結論としては,ケプストラム法が,ある程度の精度で心拍を推定できました. (しかし,今回は省略したその他のデータでは異なる結果も得られているため,手法毎に一長一短があるということも分かっています.そこで,) 今後の課題として, 活動シーンに合わせて手法をそれぞれ切り替えられるようなシステムを開発し,より精度を高めていく必要があると考えられます. 以上で報告は終わります.ご清聴ありがとうございました.
  22. [05:20] 3つ目の指標は,グロスピッチ誤差(GPE)です. これは正解値ho[i]と推定値h^o[i]の絶対誤差を上回る短時間区間の割合を算出したものです. 不正解となる短時間区間の集合Iが,信号全体のどの程度を占めているかを示すため,この指標により,大まかな推定精度を確認することができます.
  23. [07:04] 4つ目の指標は,ファインピッチ誤差(FPE)です. これはGPEとは逆に,正解値ho[i]と推定値h^o[i]の絶対誤差を下回る短時間区間の割合のみを用いて,絶対誤差の標準偏差を算出したものになります. 従ってFPEからは,GPEから算出された,大まかに推定できている短時間区間にのみ着目し,この区間における,より詳細な推定精度を確認することができます. 本実験では,以上の4つの評価指標を用いて,各手法の推定精度をより明確に比較しました.
  24. [03:45] これがデータ1の波形 クリッピングしていて運動時は見えなくなっている
  25. [09:31] 斜光テープで光の量を調節し,入力信号を小さくしたことでクリッピング対策を施している この影響で,全体的に信号が小さくなり,かえって推定が難しくなってしまった.
  26. [09:45] 斜光テープで光の量を調節し,入力信号を小さくしたことでクリッピング対策を施している この影響で,全体的に信号が小さくなり,かえって推定が難しくなってしまった.
  27. [09:31] この結果,やはりGPEが良くない FPEはいい 逆に言うと,綺麗に推定できている部分のみの推定比較が,このデータのFPEでわかるということになります. ここでいう綺麗に推定できている部分はおそらく睡眠時です. したがって,このデータでFPEの精度が最も高くなっているYIN法が,睡眠時には適している. 反対に,通常活動時も加味した場合の全体的な精度としては,今回発表したデータ1の結果において,GPEとともに高精度となった,ケプストラム法が適しているといえる. よって,これらを状況に応じて切り替えることができれば,より高精度な推定が可能となるであろうと考察しました.
  28. [09:45] GPEが悪い FPEはいい 逆に言うと,綺麗に推定できている部分のみの推定比較が,このデータのFPEになる. ここでいう綺麗に推定できている部分はおそらく睡眠時 したがって,このデータでFPEの精度が最も高くなっているYIN法が,睡眠時には適している. 反対に,通常活動時も加味した場合の全体的な精度としては,今回発表したデータ1の結果で高精度となった,ケプストラム法が適しているといえる. よって,これらを状況に応じて切り替えることができれば,より高精度な推定が可能となるであろうと考察しました.
  29. [09:31] この結果,やはりGPEが良くない FPEはいい 逆に言うと,綺麗に推定できている部分のみの推定比較が,このデータのFPEでわかるということになります. ここでいう綺麗に推定できている部分はおそらく睡眠時です. したがって,このデータでFPEの精度が最も高くなっているYIN法が,睡眠時には適している. 反対に,通常活動時も加味した場合の全体的な精度としては,今回発表したデータ1の結果において,GPEとともに高精度となった,ケプストラム法が適しているといえる. よって,これらを状況に応じて切り替えることができれば,より高精度な推定が可能となるであろうと考察しました.
  30. [09:45] GPEが悪い FPEはいい 逆に言うと,綺麗に推定できている部分のみの推定比較が,このデータのFPEになる. ここでいう綺麗に推定できている部分はおそらく睡眠時 したがって,このデータでFPEの精度が最も高くなっているYIN法が,睡眠時には適している. 反対に,通常活動時も加味した場合の全体的な精度としては,今回発表したデータ1の結果で高精度となった,ケプストラム法が適しているといえる. よって,これらを状況に応じて切り替えることができれば,より高精度な推定が可能となるであろうと考察しました.
  31. [02:08] ここで,本研究で取り扱う付け爪型センサの計測原理を簡単に説明します. 爪の上に固定された回路のLED光が爪表面に照射され,その反射光をフォトダイオードで計測します. これは,指先の血管が膨張や収縮をする際の爪表面のわずかな色の変化を電圧の変動に変換していることになります. このフォトダイオードの電圧波形を増幅・信号処理し,データロガー等で記録します.