SlideShare a Scribd company logo
日本音響学会 編 音響テクノロジーシリーズ22
音声分析合成
[1]
本の紹介
 日本音響学会 編 音響テクノロジーシリーズ22
音声分析合成 森勢 将雅 著
発表計画
1.基礎知識 スライド発表はしない
2.音声のパラメータ表現 ① ←今回
3.基本周波数の推定 ② 第二回
4.スペクトル包絡の推定 ③ 〃
5.非周期性指標の推定 ④ 第三回
6.高精度に計算するコツ ⑤ 〃
7.音声の加工技術 ⑥ 第四回
8.音声品質の主観評価方法 ⑦ 〃
2章 音声のパラメータ表現
二章 見出し
 2.1 音声の生成メカニズムと音声の分類
 2.2 音声を構成するパラメータ
 2.3 伝統的な音声分析合成システム
 2.4 本章まとめ
パラメータの紹介・伝統的なボコーダの説明を行う
具体的な抽出方法などは第三章以降で行う
はじめに
 音素
「ある言語に生じる単音を語の意味への関与を基準に抽象化
して得られる音声の基本単位」
音声の分析合成の研究に必要な音声の種類を紹介
チャネルボコーダをはじめとする伝統的なアイデアを紹介
音声の生成メカニズムと音声の分類
 代表的な区分 母音 と 子音
 音声分析合成 声帯振動が伴う/伴わない ←重要
・声帯振動伴う 有声音
・声帯振動伴わない 無声音 →摩擦音 と 破裂音
音声合成では摩擦音と破裂音は区別しない(ことが多い)
有声音と無声音が区別できればOK!
有声音の発生メカニズム
周期的に繰り返す声帯振動g(t)
口の形に由来する
調音フィルタV(ω)
口から放射される放射特性R(ω)
マイクロフォンで観測されるまでに
含まれるパラメータ
無声音の発声メカニズム
声帯で発生した声帯振動が声道を通るとき特徴付けされる
→調音フィルタ
唇から放射される際にフィルタに似た音色付けがされる
→放射特性
このとき共振によって生じたピーク = フォルマント周波数
スペクトル包絡
声帯振動一回分のスペクトルG(ω),調音フィルタV(ω),放射特性R(ω)を1つの
フィルタともなしたもの →G(ω) V(ω) R(ω)
出典https://www.diva.co.jp/mail-magazine/268a/
無声音の発声メカニズム
 摩擦音 声帯振動を伴わない子音 継続して発音できる
 破裂音 口唇や舌を利用して生成する音 短時間の発音
破裂音
/t/
摩擦音
/s/
/o/ /i/
音声を構成するパラメータ
 ボコーダ
音声からなんらかのパラメータを取り出し、取り出したパラメータから
波形を生成する考え
音声符号化によるパラメータ化、および符号化されたパラメータから波
形を生成する仕組みの総称ともいえる!
他にはフェーズボコーダや正弦波モデルがある
基本周波数
 定義:周期的に生じる声帯振動の時間間隔のうち、最短の間隔として
与えられる基本周期の逆数 (記号 𝑓0)
 基本周期が短時間で大きく変わる音声の音声分析は難しい
 声帯振動を伴う音声であれば、例外を除き基本的には基本周波数が存在
 音声分析では、フレームごとに基本周波数が存在するか判定
→存在するとき有声音 存在しないとき無声音
スペクトル包絡
 スペクトル包絡は知覚する音の音色に対応
 H(ω)=G(ω) V(ω) R(ω)
 スペクトル包絡の推定対象 … 振幅,(位相)
・位相について推定が難しく、近くに与える影響も振幅のほうが大きいた
め、位相は重視しない。
非周期性指標
 有声音は声帯振動によって生じるが、周期成分のみで構成されている
わけではない
 雑音成分(非周期性成分) n(t)が織り込まれている
y(t)=h(t)*x(t)+n(t)
観測可能なのはy(t)のみ ということは…n(t)の算出は難しい!
→波形全体のパワーに対する非周期成分のパワーの割合を非周期性指標
代表的な音声分析合成システム
 ボコーダ(非周期性指標を不使用)
 ボコーダ(非周期性指標を使用)
 フェーズボコーダ
 正弦波モデル
ボコーダ(AP不使用)1
 チャネルボコーダの原型は1939年に提案
 音声波形から
①基本周波数、②有声無声情報、③スペクトル包絡 を推定
合成音声作成の流れ
・基本周波数と有声無声情報から励起信号を生成
・励起信号に対してスペクトル包絡で音色付け →合成音声完成!
ボコーダ(AP不使用)2
ボコーダの概要
出典https://www.jstage.jst.go.jp/article/sicejl1962/19/3/19_3_293/_pdf/
分析 合成
ボコーダ(AP不使用)3 LPCボコーダ
FFTの普及により、ディジタルフィルタを用いたスペクトル包絡推定が普及
●LPCボコーダ(ARモデル)
𝑦 𝑛 = −
𝑚=1
𝑀
𝑎𝑚𝑦 𝑛 − 𝑚 + 𝑥(𝑛)
𝑎𝑚はLPC(線形予測符号)により求められる(後章で紹介)
ARモデル…自己回帰モデル
ボコーダ(AP不使用)4 準同型ボコーダ
●準同型ボコーダ(MAモデル)
𝑦 𝑛 = −
𝑚=0
𝑀
𝑏𝑚𝑥 𝑛 − 𝑚
𝑏𝑚 スペクトルに何らかの位相を与えて逆FFTで求まる
MAモデル…自己回帰移動平均モデル
ここからは準同型ボコーダを単にボコーダと呼ぶ
ボコーダ(AP不使用)5
 現在の高音質ボコーダ
ボコーダ(AP不使用)6 フィルタ位相特性
 有声無声情報は基本周波数から推定可能
 励起信号とスペクトル包絡に畳み込む→合成音声が完成!
 しかし…
 スペクトル包絡は振幅情報のみ
 波の形になってないとフィルタとできない(スペクトル包絡はフィル
タの役目を持っているため)
 どうにか位相を与えてスペクトル包絡を波としよう!
・もっとも簡単ゼロ位相 →値が負になる →品質が悪い
・最小位相(対数を用いて計算) →品質が良いのでこれを採用
ボコーダ(AP不使用)7 パルスが生じる時間の
算出
 [問題]有声音を生成する際のパルスをいつ発生させたらよいか?
 もっとも簡単な方法
励起振動の始まりを算出してそこから基本周期ごとにパルスを起こす
実は…この方法では、基本周波数が短時間に変わる音声ではやや粗い
基本周波数は時間変化すると考えるほうがより高品質 𝑓0 𝑡
𝜃 𝑡 = 2𝜋 0
𝑡
𝑓0 𝑡 𝑑𝑡
例えば…𝑓0 𝑡 が100Hzのとき10msで2π回転
𝜃 𝑡 を2πで割ったあまりが0の時パルス出現!
ボコーダ(AP使用)
 おさらい AP(ω)はスペクトルで表現される
値は1~0 …0ならその周波数におけるパワーが周期的
スペクトル包絡H(ω)が周期成分と非周期成分の和で表されているとすると
|H(ω)| = | H(ω) |(1-AP(ω)) +| H(ω) |AP(ω)
最小位相法と合わせて用いる
とき、H(ω)がゼロにならな
いよう工夫する(経験済み…)
フェーズボコーダ
 1966年に提案(前述のものよりは生まれは新しい)
 扱うパラメータが異なる
 音声の時間周波数解析により得られるスペクトログラムにおける
「振幅」と「瞬時周波数」
 音声波形y(t)を、通過域における振幅がフラットで直線位相を有するNチャ
ネルの帯域通過フィルタを通過させたNチャネルの信号の和として近似
フェーズボコーダ
 各帯域通過フィルタの接続が完璧に行われないと雑音は避けられない
𝑔𝑛 𝑡 = ℎ 𝑡 cos(ω𝑛𝑡)
時間伸縮に有利、フェーズボコーダでは各チャネルの位相を扱う
→前述のボコーダとは大きく異なった特徴
正弦波モデル
 基本周波数および、その整数倍の成分の信号を算出し、総和を求める
 女性歌手のビブラート …基本周波数が短時間で変化している
 有声音は時間とともに周波数が滑らかに変化する正弦波の重ね合わせ
て表現できる!
正弦波モデル
 チャネルボコーダと同様、励起信号を発生し、時間ごとに特徴の異な
るフィルタを通して波形を得る
 時変フィルタh(t,τ)を時間周波数表現H(ω,t)に変換
 合成された音声波形y(t)は、励起信号と時変フィルタの畳み込み
本章のまとめ
 今回紹介したボコーダは最も基本的な考え方のみの紹介
 これらはさまざまな改良法が出提案されている
 音声を表現するパラメータにはいくつもの考え方があるこ
とを知ることが大切!
参考文献
 今井 聖:「音声合成の手法」
【https://www.jstage.jst.go.jp/article/sicejl1962/19/3/19_3_293/_pdf】
 情報サイト オリックス・レンテック株式会社:「フィルタの周波数特性と波
形応答」【https://go.orixrentec.jp/rentecinsight/measure/article-25】
 筒井淳也:「(ほぼ)図(だけ)で説明する回帰分析」
【http://www.ritsumei.ac.jp/~tsutsui/misc/regression.pdf】
 初歩的知識を調べたものに関しては省略

More Related Content

What's hot

やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
Shinnosuke Takamichi
 
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
Kenyu Uehara
 
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
Junya Koguchi
 
音声信号の分析と加工 - 音声を自在に変換するには?
音声信号の分析と加工 - 音声を自在に変換するには?音声信号の分析と加工 - 音声を自在に変換するには?
音声信号の分析と加工 - 音声を自在に変換するには?
NU_I_TODALAB
 
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
Daichi Kitamura
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
NU_I_TODALAB
 
Saito2103slp
Saito2103slpSaito2103slp
Saito2103slp
Yuki Saito
 
短時間発話を用いた話者照合のための音声加工の効果に関する検討
短時間発話を用いた話者照合のための音声加工の効果に関する検討短時間発話を用いた話者照合のための音声加工の効果に関する検討
短時間発話を用いた話者照合のための音声加工の効果に関する検討
Shinnosuke Takamichi
 
音声の認識と合成
音声の認識と合成音声の認識と合成
音声の認識と合成
Akinori Ito
 
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
Yui Sudo
 
相互相関関数の最大化と時間差推定
相互相関関数の最大化と時間差推定相互相関関数の最大化と時間差推定
相互相関関数の最大化と時間差推定
KoueiYamaoka
 
音声認識の基礎
音声認識の基礎音声認識の基礎
音声認識の基礎
Akinori Ito
 
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
Kitamura Laboratory
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク
NU_I_TODALAB
 
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパスJTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
Shinnosuke Takamichi
 
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
Deep Learning JP
 
音楽信号処理における基本周波数推定を応用した心拍信号解析
音楽信号処理における基本周波数推定を応用した心拍信号解析音楽信号処理における基本周波数推定を応用した心拍信号解析
音楽信号処理における基本周波数推定を応用した心拍信号解析
Kitamura Laboratory
 
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
Deep Learning JP
 
深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討
Kitamura Laboratory
 
深層学習を利用した音声強調
深層学習を利用した音声強調深層学習を利用した音声強調
深層学習を利用した音声強調
Yuma Koizumi
 

What's hot (20)

やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
 
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
 
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
ボコーダ波形生成における励振源の群遅延操作に向けた声帯音源特性の解析
 
音声信号の分析と加工 - 音声を自在に変換するには?
音声信号の分析と加工 - 音声を自在に変換するには?音声信号の分析と加工 - 音声を自在に変換するには?
音声信号の分析と加工 - 音声を自在に変換するには?
 
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
独立低ランク行列分析に基づく音源分離とその発展(Audio source separation based on independent low-rank...
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
 
Saito2103slp
Saito2103slpSaito2103slp
Saito2103slp
 
短時間発話を用いた話者照合のための音声加工の効果に関する検討
短時間発話を用いた話者照合のための音声加工の効果に関する検討短時間発話を用いた話者照合のための音声加工の効果に関する検討
短時間発話を用いた話者照合のための音声加工の効果に関する検討
 
音声の認識と合成
音声の認識と合成音声の認識と合成
音声の認識と合成
 
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
 
相互相関関数の最大化と時間差推定
相互相関関数の最大化と時間差推定相互相関関数の最大化と時間差推定
相互相関関数の最大化と時間差推定
 
音声認識の基礎
音声認識の基礎音声認識の基礎
音声認識の基礎
 
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
付け爪型センサを用いたケプストラム分析及びMUSIC法に基づく心拍推定
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク
 
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパスJTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
 
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
 
音楽信号処理における基本周波数推定を応用した心拍信号解析
音楽信号処理における基本周波数推定を応用した心拍信号解析音楽信号処理における基本周波数推定を応用した心拍信号解析
音楽信号処理における基本周波数推定を応用した心拍信号解析
 
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
 
深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討深層パーミュテーション解決法の基礎的検討
深層パーミュテーション解決法の基礎的検討
 
深層学習を利用した音声強調
深層学習を利用した音声強調深層学習を利用した音声強調
深層学習を利用した音声強調
 

More from Natsumi KOBAYASHI

音声分析合成[7].pptx
音声分析合成[7].pptx音声分析合成[7].pptx
音声分析合成[7].pptx
Natsumi KOBAYASHI
 
音声分析合成[6].pptx
音声分析合成[6].pptx音声分析合成[6].pptx
音声分析合成[6].pptx
Natsumi KOBAYASHI
 
音声分析合成[5].pptx
音声分析合成[5].pptx音声分析合成[5].pptx
音声分析合成[5].pptx
Natsumi KOBAYASHI
 
音声分析合成[4].pptx
音声分析合成[4].pptx音声分析合成[4].pptx
音声分析合成[4].pptx
Natsumi KOBAYASHI
 
seminar-text_3.pptx
seminar-text_3.pptxseminar-text_3.pptx
seminar-text_3.pptx
Natsumi KOBAYASHI
 
seminar-text_2.pptx
seminar-text_2.pptxseminar-text_2.pptx
seminar-text_2.pptx
Natsumi KOBAYASHI
 
seminar-text_1.pptx
seminar-text_1.pptxseminar-text_1.pptx
seminar-text_1.pptx
Natsumi KOBAYASHI
 
seminar-paper_mapping.pptx
seminar-paper_mapping.pptxseminar-paper_mapping.pptx
seminar-paper_mapping.pptx
Natsumi KOBAYASHI
 
seminar-paper_diarization.pptx
seminar-paper_diarization.pptxseminar-paper_diarization.pptx
seminar-paper_diarization.pptx
Natsumi KOBAYASHI
 
seminar-paper_VMusingCCA.pptx
seminar-paper_VMusingCCA.pptxseminar-paper_VMusingCCA.pptx
seminar-paper_VMusingCCA.pptx
Natsumi KOBAYASHI
 
seminar-paper_vtln.pptx
seminar-paper_vtln.pptxseminar-paper_vtln.pptx
seminar-paper_vtln.pptx
Natsumi KOBAYASHI
 
seminar-paper_karaoke.pptx
seminar-paper_karaoke.pptxseminar-paper_karaoke.pptx
seminar-paper_karaoke.pptx
Natsumi KOBAYASHI
 
seminar-paper_ForeignAccentConv.pptx
seminar-paper_ForeignAccentConv.pptxseminar-paper_ForeignAccentConv.pptx
seminar-paper_ForeignAccentConv.pptx
Natsumi KOBAYASHI
 
論文紹介FaceSwap-dongyue.pptx
論文紹介FaceSwap-dongyue.pptx論文紹介FaceSwap-dongyue.pptx
論文紹介FaceSwap-dongyue.pptx
Natsumi KOBAYASHI
 
論文紹介D4C-morise.pptx
論文紹介D4C-morise.pptx論文紹介D4C-morise.pptx
論文紹介D4C-morise.pptx
Natsumi KOBAYASHI
 
論文紹介PIE-patrick.pptx
論文紹介PIE-patrick.pptx論文紹介PIE-patrick.pptx
論文紹介PIE-patrick.pptx
Natsumi KOBAYASHI
 
論文紹介Morphing-hui.pptx
論文紹介Morphing-hui.pptx論文紹介Morphing-hui.pptx
論文紹介Morphing-hui.pptx
Natsumi KOBAYASHI
 
論文紹介Morphing-morise.pptx
論文紹介Morphing-morise.pptx論文紹介Morphing-morise.pptx
論文紹介Morphing-morise.pptx
Natsumi KOBAYASHI
 
論文紹介PIE-yamazaki.pptx
論文紹介PIE-yamazaki.pptx論文紹介PIE-yamazaki.pptx
論文紹介PIE-yamazaki.pptx
Natsumi KOBAYASHI
 

More from Natsumi KOBAYASHI (19)

音声分析合成[7].pptx
音声分析合成[7].pptx音声分析合成[7].pptx
音声分析合成[7].pptx
 
音声分析合成[6].pptx
音声分析合成[6].pptx音声分析合成[6].pptx
音声分析合成[6].pptx
 
音声分析合成[5].pptx
音声分析合成[5].pptx音声分析合成[5].pptx
音声分析合成[5].pptx
 
音声分析合成[4].pptx
音声分析合成[4].pptx音声分析合成[4].pptx
音声分析合成[4].pptx
 
seminar-text_3.pptx
seminar-text_3.pptxseminar-text_3.pptx
seminar-text_3.pptx
 
seminar-text_2.pptx
seminar-text_2.pptxseminar-text_2.pptx
seminar-text_2.pptx
 
seminar-text_1.pptx
seminar-text_1.pptxseminar-text_1.pptx
seminar-text_1.pptx
 
seminar-paper_mapping.pptx
seminar-paper_mapping.pptxseminar-paper_mapping.pptx
seminar-paper_mapping.pptx
 
seminar-paper_diarization.pptx
seminar-paper_diarization.pptxseminar-paper_diarization.pptx
seminar-paper_diarization.pptx
 
seminar-paper_VMusingCCA.pptx
seminar-paper_VMusingCCA.pptxseminar-paper_VMusingCCA.pptx
seminar-paper_VMusingCCA.pptx
 
seminar-paper_vtln.pptx
seminar-paper_vtln.pptxseminar-paper_vtln.pptx
seminar-paper_vtln.pptx
 
seminar-paper_karaoke.pptx
seminar-paper_karaoke.pptxseminar-paper_karaoke.pptx
seminar-paper_karaoke.pptx
 
seminar-paper_ForeignAccentConv.pptx
seminar-paper_ForeignAccentConv.pptxseminar-paper_ForeignAccentConv.pptx
seminar-paper_ForeignAccentConv.pptx
 
論文紹介FaceSwap-dongyue.pptx
論文紹介FaceSwap-dongyue.pptx論文紹介FaceSwap-dongyue.pptx
論文紹介FaceSwap-dongyue.pptx
 
論文紹介D4C-morise.pptx
論文紹介D4C-morise.pptx論文紹介D4C-morise.pptx
論文紹介D4C-morise.pptx
 
論文紹介PIE-patrick.pptx
論文紹介PIE-patrick.pptx論文紹介PIE-patrick.pptx
論文紹介PIE-patrick.pptx
 
論文紹介Morphing-hui.pptx
論文紹介Morphing-hui.pptx論文紹介Morphing-hui.pptx
論文紹介Morphing-hui.pptx
 
論文紹介Morphing-morise.pptx
論文紹介Morphing-morise.pptx論文紹介Morphing-morise.pptx
論文紹介Morphing-morise.pptx
 
論文紹介PIE-yamazaki.pptx
論文紹介PIE-yamazaki.pptx論文紹介PIE-yamazaki.pptx
論文紹介PIE-yamazaki.pptx
 

音声分析合成[1].pptx