SlideShare a Scribd company logo
1 of 37
Recent Progress on Voice Conversion:
What is Next?
Tomoki TODA
Nagoya University, Japan
Jan. 21st, 2021
Voice Conversion
Vocoder ?
https://en.wikipedia.org/wiki/{Voder,Vocoder}
Voder
https://arxiv.org/pdf/{1706.03762, 1609.03499}.pdf
Voice Conversion (VC)
What’s VC?
• My own definition of VC
• Need to address various sub‐problems
Voice Conversion (VC)
How to factorize?
How to analyze? How to generate?
How to convert?
VC
How to parameterize?
VC: 1
“VC is a technique to modify speech waveform to convert
non‐/para‐linguistic information while preserving linguistic information.”
Demo of VC: Vocal Effector
• Let’s convert my singing voice into specific characters’ singing voices!
Realtime statistical VC software
[Dr. Kobayashi, Nagoya Univ.]
Famous virtual singer
VC: 2
[Toda; ’12][Kobayashi; ’18a]
VC
NOTE: Risk of VC
• Need to look at a possibility that VC is misused for spoofing…
• VC makes it possible for someone to speak with your voices…
• But… we should NOT stop VC research because there are                       
many useful applications (e.g., speaking aid)!
• What can we do?
• Collaborate with anti‐spoofing research [Wu; ’15, Kinnunen; ’17, Todisco; ’19]
• Need to widely tell people how to use VC correctly!
VC needs to be socially recognized as a kitchen knife.
VC: 3
Recent Progress
Let’s overview 
challenge activities!
Voice Conversion Challenge (VCC)
• Objective of VCC
• Following a policy of Blizzard Challenge [Black; 2005]
“Evaluation campaign” rather than “competition”
• Also reveal a risk of VC techniques
• Effective but possible to be used for spoofing
• Collaborate with automatic speaker verification (ASV) community   
Better understand different VC techniques by comparing their 
performance using a freely‐available dataset as a common dataset!
VCCs: 1
1st VCC (VCC2016)
• Parallel training
2nd VCC (VCC2018)
• Parallel training
• Non‐parallel training
3rd VCC (VCC2020)
• Semi‐parallel training
• Non‐parallel training across different languages 
(cross‐lingual VC)
Series of VCCs
http://www.vc‐challenge.org/
2016
2017
2018
2019
2020
• Basic task: speaker conversion [Abe; ’90]
• Convert a source speaker’s voice into a specific target speaker’s voice
VCCs: 2
• Special session at INTERSPEECH 2016
VCC2016: 1
https://bit.ly/3nZaFdh
• Supervised training using utterance pairs of source & target speech
Task: Parallel Training
Target speaker
Please say
the same thing.
Please say
the same thing.
Let’s convert
my voice.
Let’s convert
my voice.
Source speaker
VCC2016: 2
Training
Conversion
Training set
• Same linguistic contents
• 162 sentences in each speaker
Evaluation set
• 54 sentences in each 
source speaker
Evaluation by listening test
• Naturalness
• Speaker similarity
Trend in VCC2016 Systems
Converted
speech
Input 
speech Conversion w/ 
statistical model
Converted speech 
parameters
Synthesis
Analysis
Speech 
parameters
• Use speech waveform generation w/ vocoder (i.e., source‐filter model)
Spectral parameter
Excitation 
signal
Pulse train
Gaussian noise Synthetic speech
Synthesis filter
Excitation parameter
High‐quality vocoder
(WORLD [Morise; ’16], STRAIGHT [Kawahara; ’99])
VCC2016: 3
Probability model (GMM, DNN) 
trained w/ time‐aligned features
Overall Result of VCC2016 Listening Tests
1 2 3 4 5
0
20
40
60
80
100
Mean opinion score (MOS) on naturalness
Correct rate [%] on speaker similarity
Target
Source
Baseline A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
Better
Better
P
Q
Correct = 75%
MOS = 3.5
• 17 submitted systems
• 1 baseline (GMM [Toda; ’07] and freely available vocoder in 2004)
J system
[Kobayashi; ’16]
VCC2016: 4
Findings through VCC2016
• Effectiveness of using direct waveform modification as vocoder‐free 
waveform generation (in top system, J)
Converted 
speech
Input 
speech Direct waveform 
modification
Conversion
Analysis
Spectral
sequence
Log‐spectral 
differential sequence
Excitation 
conversion
GMM for spectrum
F0 statistics &
GMM for aperiodicity
Vocoded waveform
Still need to use vocoder to convert excitation parameters…
VCC2016: 5
This framework was implemented in the demo system.
Note that excitation conversion can be avoided by singing 
the same key as the target. [Kobayashi; ’18a]
• Special session at Speaker Odyssey 2018
VCC2018: 1
https://bit.ly/3bWzpQU
• Unsupervised training using arbitrary utterances of source & target speech
Additional Task: Nonparallel Training
Target speaker
Please say
the same thing.
Let’s say
a different thing.
Let’s convert
my voice.
Let’s convert
my voice.
Source speaker
VCC2018: 2
Training
Conversion
Training set
• Different linguistic contents
• 81 sentences in each speaker
Evaluation set
• 35 sentences in each 
source speaker
More evaluation
• Listening test
• ASR & ASV results
Direct waveform 
modification
• Speech waveform generation using vocoder‐free framework
• Feature conversion using neural networks
Trend in VCC2018 Systems
Input 
speech
Conversion
Synthesis w/ 
traditional vocoder
Analysis Converted 
speech
Neural networks (most systems) and
GMMs (4 systems including baseline) 
trained with time‐aligned features
High‐quality vocoder 
(most systems)
Vocoder‐free
(5 systems including baseline)
Pseudo parallel data generation 
to handle nonparallel training 
(several systems)
VCC2018: 3
Converted 
speech
Overall Results of VCC2018 Listening Tests
100
80
60
40
20
0
1 2 3 4 5
MOS on naturalness
Similarity score [%]
100
80
60
40
20
0
1 2 3 4 5
MOS on naturalness
Similarity score [%]
N17 system
[Tobing; ’18]
N10 system [Liu; ’18]
N17 system
[Wu; ’18]
N10 system [Liu; ’18]
Parallel training task
• 23 submitted systems
• 1 baseline
Nonparallel training task
• 11 submitted systems
• 1 baseline
VCC2018: 4
Baseline
[Kobayashi; ‘18b]
Baseline
[Kobayashi; ‘18b]
• Effectiveness of waveform generation using WaveNet [van den Oord; ’16] as      
a data‐driven vocoder, “neural vocoder” (in top 2 systems, N10 & N17)
• Effectiveness of alignment‐free training [Sun; ’16] based on reconstruction 
process using pretrained encoder (in top system, N10)
Findings through VCC2018
Input 
speech
Feature
conversion
Synthesis w/ 
neural vocoder
Analysis
Converted 
speech
Input 
features
Speaker‐
independent 
features
Pretrained 
Encoder
Speaker‐aware 
decoder
Reconstructed 
features
Speaker information
VCC2018: 5
External ASR data
Speech data
• Joint Workshop for the Blizzard Challenge and                                 
Voice Conversion Challenge 2020 
VCC2020: 1
https://bit.ly/3p0H98t
• Unsupervised training using different languages
More Challenging Task: Cross‐Lingual VC
Target speaker
Please say
the same thing.
让我们说另一种
语言。
Let’s convert
my voice.
Let’s convert
my voice.
Source speaker
VCC2020: 2
Training
Conversion
Training set
• Bigger gap on linguistic information
• 70 sentences in each speaker
Evaluation set
• 25 sentences in each 
source speaker
More evaluation & analysis
• Listening test
• ASR & spoofing results, more
• Speech waveform generation using neural vocoder
• Feature conversion w/ encoder‐decoder capable of alignment‐free training
Trend in VCC2020 Systems
Neural 
vocoder
Converted 
speech
Frame‐to‐frame encoder‐decoder
• Autoencoder (baseline)
• Phonetic posteriorgram (PPG, baseline)
Sequence‐to‐sequence encoder‐decoder
• Text representation (ASR+TTS, baseline)
VCC2020: 3
Input 
speech
Encoder Decoder
Speaker information
External 
ASR data
External 
speech data
Neural vocoders (baselines)
• Autoregressive (AR) model 
(WaveNet, WaveRNN, …)
• Non‐AR model             
(Parallel WaveGAN, …)
External 
TTS data
Overall Results of VCC2020 Listening Tests
Semi‐parallel training task
• 28 submitted systems
• 3 baseline systems
Cross‐lingual VC task
• 25 submitted systems
• 3 baseline systems
T22 baseline      
ASR+TTS+PWG 
[Huang; ’20]
T16 baseline
CycleVAE+PWG
[Tobing; ’20]
T16 baseline
T22 baseline
Top system
ASR+TTS+WN 
[Zhang; ’20]
Top system
PPG+WN [Liu; ’20]
VCC2020: 4
T11 baseline
VCC2018 top 
system
T11 baseline
• Some systems outperform VCC2018 top system!
• Good performance of alignment‐free training
• Text representation works very well in intra‐lingual VC.
• Conversion of long‐term features is well handled.
• PPG works well in cross‐lingual VC.
• No conversion of long‐term features is not perfect but still reasonable.
• Good performance of neural vocoder
• Autoregressive models tend to outperform non‐autoregressive models.
• Current performance of intra‐lingual VC
• Speaker similarity is comparable with target recorded speech!
• Naturalness is still distinguishable from target recorded speech
• Current performance of cross‐lingual VC
• More difficult than intra‐lingual VC
• More difficult to judge speaker similarity between different languages
Findings through VCC2020
VCC2020: 5
Summary of Recent Progress of VC Techniques
Summary of VCCs
Analysis Conversion Synthesis
Parametric decomposition 
w/ high‐quality vocoder
 Excitation parameters
 Spectral parameters
No decomposition
(raw representation)
 Mel‐spectrogram
Frame‐to‐frame
 Parametric 
probability models
 Neural regression
Sequence‐to‐sequence
 Encoder‐decoder 
w/ attention
 Long‐term feature 
modeling
Supervised parallel training
 Regression using time‐
aligned features
Unsupervised (alignment‐
free) nonparallel training
 Reconstruction using 
speaker‐independent 
features
 Pretrained models
High‐quality vocoder
 Signal processing 
based on source‐
filter model
Waveform modeling 
w/ neural vocoder
 AR models
 Non‐AR models
Mapping
Training
Simplified More complex
More flexible Data‐driven
What’s Next?
My own view of 
future directions
• Further performance improvements
• Higher‐quality and more controllable
• End‐to‐end and sequence‐to‐sequence VC
• Unsupervised factorization
• Flexible use of huge amount of existing speech data
• Pretraining and transfer learning
• Self‐supervised training using unlabeled data
• More varieties of conversion
• Beyond speaker conversion: from who speaks to how to speak
• Common representation over arbitrary languages
• Better embeddings of long‐term features
• Conversion of pronunciation, speaking styles, emotion, ...
1. Make VC Techniques Better and Better!
Future direction: 1
Sequence‐to‐sequence VC + unsupervised learning w/o any labels
• Towards new definition of VC
2. Convert Higher Level Features!
Future direction: 2
“VC is a technique to modify speech waveform to convert
non‐/para‐linguistic information while preserving linguistic information.”
arbitrary conceptual
Speech
Word‐level 
features
Converted 
speech
Target 
information
Long‐term 
features
Short‐term 
features
Higher‐level
embeddings
Higher than text 
representation
Conceptual 
information
Linguistic 
information
Para‐linguistic 
information
Non‐linguistic 
information
+
+
+
+
Higher‐level 
encoder
Also convert word 
representation!
Deeper 
decoder
Sequence‐to‐sequence VC using  higher‐level embeddings
3. Develop (Interactive) VC Applications
Future direction: 3
• Augment speech production by using low‐latency real‐time VC [Toda, ’14]
• Towards “interactive VC” to create cooperatively working functions between     
user and system by using  additionally input signals and interaction
Speech & singing voices 
produced beyond
physical constraints
Low‐latency 
real‐time VC
Speech & singing 
voices produced by 
existing functions
Involuntary control of system behavior 
to avoid physically impossible output!
Soft constraints on 
speech production
[JST CREST CoAugmetation project]
Instantaneous feedback of system behavior
Intentional control of     
system behavior as we want!
Additional signals 
(e.g., gesture)
Interactive VC framework to understand system behaviors 
of a data‐driven system through interaction
Example of Interactive VC for Singing Aid
Future direction: 4
[Morikawa; ’17]
Another Example of Interactive VC
• “Karaoke”‐type singing aid system for laryngectomees
• Suppose that a user sings to background music
• Control singing expression, such as vibrato, by moving an arm
+ = Interactive VC
Future direction: 5
[Okawa; ’21]
Summary
• What was Voice Conversion (VC)?
• Technique to convert non‐/para‐linguistic information
• Many useful applications but to be recognized as “kitchen knife”
• Review of recent trend of VC research
• Significant progress through recent Voice Conversion Challenges (VCCs)
• Neural vocoder and sequence‐to‐sequence mapping
• Alignment‐free training capable of handling unsupervised training
• Possible future direction of VC research
• Further performance improvements
• From linguistically unchanged to conceptually unchanged
• Interactive VC to augment our speech production
Summary
Let’s start VC research and develop useful and helpful applications!
Available Resources
• Freely available VCC2020 baseline systems
• Sequence‐to‐sequence VC based on cascaded ASR + TTS w/ ESPnet
• https://bit.ly/2RVwAVk [W.‐C. Huang]
• Frame‐wise VC based on CycleVAE + Parallel WaveGAN
• https://bit.ly/369AXUK [P.L. Tobing, Y.‐C. Wu]
• Tutorial materials at INTERSPEECH 2019
• https://bit.ly/328LwSS [T. Toda, K. Kobayashi, T. Hayashi]
• Lecture slides and Hands‐on
• Development of VC w/ WaveNet vocoder on Google Colab note
• Summer school materials at SPCC 2018 (& 2019)
• Lecture slides on “Advanced Voice Conversion”
• https://bit.ly/2PpWEYx
• More details of recent progress of VC techniques
• Hands‐on slides
• https://bit.ly/2pmwuLC
• More details of sprocket to develop VCC2018 baseline system
Resources
References
[Abe; ’90] M. Abe, S. Nakamura, K. Shikano, H. Kuwabara.  Voice conversion through vector quantization.  J. 
Acoust. Soc. Jpn (E), Vol. 11, No. 2, pp. 71–76, 1990.
[Black; ’05] A.W. Black, K. Tokuda. The Blizzard Challenge – 2005: evaluating corpus‐based speech synthesis 
on common datasets.  Proc. INTERSPEECH, pp. 77–80, 2005.
[Huang; ’20] W.‐C. Huang, T. Hayashi, S. Watanabe, T. Toda.  The sequence‐to‐sequence baseline for the 
Voice Conversion Challenge 2020: cascading ASR and TTS.  Proc. Joint workshop for the Blizzard Challenge 
and Voice Conversion Challenge 2020, pp. 160–164, 2020.
[Kawahara; ’99] H. Kawahara, I. Masuda‐Katsuse, A. de Cheveigne.   Restructuring speech representations 
using a pitch‐adaptive time‐frequency smoothing and an instantaneous‐frequency‐based F0 extraction: 
possible role of a repetitive structure in sounds.   Speech Commun., Vol. 27, No. 3–4, pp. 187–207, 1999.
[Kinnunen; ’17] T. Kinnunen, M. Sahidullah, H. Delgado, M. Todisco, N. Evans, J. Yamagishi, K.A. Lee.  The 
ASVspoof 2017 Challenge: assessing the limits of replay spoofing attack detection.  Proc. INTERSPEECH, pp. 
2‐‐6, 2017.
[Kobayashi; ’16] K. Kobayashi, S. Takamichi, S. Nakamura, T. Toda.  The NU‐NAIST voice conversion system 
for the Voice Conversion Challenge 2016.  Proc. INTERSPEECH, pp. 1667–1671, 2016.
[Kobayashi; ’18a] K. Kobayashi, T. Toda, S. Nakamura.  Intra‐gender statistical singing voice conversion with 
direct waveform modification using log‐spectral differential.  Speech Commun., Vol. 99, pp. 211–220, 2018.
[Kobayashi; ’18b] K. Kobayashi, T. Toda.  sprocket: open‐source voice conversion software.  Proc. Odyssey, 
pp. 203–210, 2018.
[Liu; ’18] L.‐J. Liu, Z.‐H. Ling, Y. Jiang, M. Zhou, L.‐R. Dai.  WaveNet Vocoder with Limited Training Data for 
Voice Conversion.  Proc. INTERSPEECH, pp. 1983–1987, 2018.
[Liu; ’20] L.‐J. Liu, Y.‐N. Chen, J.‐X. Zhang, Y. Jiang, Y.‐J. Hu, Z.‐H. Ling, L.‐R. Dai. Non‐parallel voice conversion 
with autoregressive conversion model and duration adjustment. Proc. Joint workshop for the Blizzard 
Challenge and Voice Conversion Challenge 2020, pp. 126–130, 2020.
References: 1
[Morikawa; ’17] K. Morikawa, T. Toda.  Electrolaryngeal speech modification towards singing aid system for 
laryngectomees.  Proc. APSIPA ASC, 4 pages, 2017.
[Morise; ’16] M. Morise, F. Yokomori, K. Ozawa.  WORLD: a vocoder‐based high‐quality speech synthesis 
system for real‐time applications.  IEICE Trans. Inf. & Syst., Vol. E99‐D, No. 7, pp. 1877–1884, 2016.
[Okawa; ’21] 大川舜平, 石黒祥生, 大谷健登, 西野隆典, 小林和弘, 戸田智基, 武田一哉.  電気式人工喉
頭を用いた歌唱システムにおける自然な身体動作を利用した歌唱表現付与の提案.  第25回情報処理学
会シンポジウム INTERACTION 2021, 6 pages, Mar. 2021.
[Sun; ’16] L. Sun, K. Li, H. Wang, S. Kang, H.M. Meng.  Phonetic posteriorgrams for many‐to‐one voice 
conversion without parallel data training.  Proc. IEEE ICME, 6 pages, 2016.
[Tobing; ’18] P.L. Tobing, Y. Wu, T. Hayashi, K. Kobayashi, T. Toda.  NU voice conversion system for the voice 
conversion challenge 2018.  Proc. Odyssey, pp. 219–226, 2018.
[Tobing; ’20] P.L. Tobing, Y. Wu, T. Toda.  Baseline system of Voice Conversion Challenge 2020 with cyclic 
variational autoencoder and parallel WaveGAN.  Proc. Joint workshop for the Blizzard Challenge and Voice 
Conversion Challenge 2020, pp. 155–159, 2020.
[Todisco; ’19] M. Todisco, X. Wang, V. Vestman, M. Sahidullah, H. Delgado, A. Nautsch, J. Yamagishi, N. 
Evans, T.H. Kinnunen, K.A. Lee  ASVspoof 2019: future horizons in spoofed and fake audio detection.  Proc. 
INTERSPEECH, pp. 1008–1012, 2019.
[Toda, ’07] T. Toda, A.W. Black, K. Tokuda.  Voice conversion based on maximum likelihood estimation of 
spectral parameter trajectory.  IEEE Trans. Audio, Speech & Lang. Process., Vol. 15, No. 8, pp. 2222–2235, 
2007.
[Toda, ’12] T. Toda, T. Muramatsu, H. Banno.  Implementation of computationally efficient real‐time voice 
conversion.  Proc. INTERSPEECH, 4 pages, 2012.
[Toda, ’14] T. Toda.  Augmented speech production based on real‐time statistical voice conversion.  Proc. 
GlobalSIP, pp. 755–759, 2014.
References: 2
[van den Oord; ’16] A. van den Oord, S. Dieleman, H. Zen, K. Simonyan, O. Vinyals, A. Graves, N. 
Kalchbrenner, A. W. Senior, K. Kavukcuoglu.  WaveNet: a generative model for raw audio.  arXiv preprint, 
arXiv:1609.03499, 15 pages, 2016.
[Wu; ’15] Z. Wu, N. Evans, T. Kinnunen, J. Yamagishi, F. Alegre, H. Li.  Spoofing and countermeasures for 
speaker verification: A survey.  Speech Commun.  Vol. 66, pp. 130–153, 2015.
[Wu; ’18] Y.‐C. Wu, P.L. Tobing, T. Hayashi, K. Kobayashi, T. Toda.  The NU non‐parallel voice conversion 
system for the voice conversion challenge 2018.  Proc. Odyssey, pp. 211–218, 2018.
[Zhang; ’20] J.‐X. Zhang, L.‐J. Liu, Y.‐N. Chen, Y.‐J. Hu, Y. Jiang, Z.‐H. Ling, L.‐R. Dai.  Voice conversion by 
cascading automatic speech recognition and text‐to‐speech synthesis with prosody transfer.  Proc. Joint 
workshop for the Blizzard Challenge and Voice Conversion Challenge 2020, pp. 121–125, 2020.
VCC2016 Summary T. Toda, L.‐H. Chen, D. Saito, F. Villavicencio, M. Wester, Z. Wu, J. Yamagishi.  The 
Voice Conversion Challenge 2016.  Proc. INTERSPEECH, pp. 1632–1636, 2016. 
VCC2016 Analysis M. Wester, Z. Wu, J. Yamagishi.  Analysis of the Voice Conversion Challenge 2016 
evaluation results.  Proc. INTERSPEECH, pp. 1637–1641, 2016. 
VCC2018 Summary J. Lorenzo‐Trueba, J. Yamagishi, T. Toda, D. Saito, F. Villavicencio, T. Kinnunen, Z. Ling.  
The voice conversion challenge 2018: promoting development of parallel and nonparallel methods.  Proc. 
Odyssey, pp. 195–202, 2018.
VCC2018 Analysis T. Kinnunen, J. Lorenzo‐Trueba, J. Yamagishi, T. Toda, D. Saito, F. Villavicencio, Z. Ling.  
A spoofing benchmark for the 2018 voice conversion challenge: leveraging from spoofing countermeasures 
for speech artifact assessment.  Proc. Odyssey, pp. 187–194, 2018.
VCC2020 Summary Z. Yi, W.‐C. Huang, X. Tian, J. Yamagishi, R.K. Das, T. Kinnunen, Z. Ling, T. Toda.  Voice 
Conversion Challenge 2020 – intra‐lingual semi‐parallel and cross‐lingual voice conversion –.  Proc. Joint 
workshop for the Blizzard Challenge and Voice Conversion Challenge 2020, pp. 80–98, 2020.
VCC2020 Analysis R.K. Das, T. Kinnunen, W.‐C. Huang, Z. Ling, J. Yamagishi, Z. Yi, X. Tian, T. Toda.  
Predictions of subjective ratings and spoofing assessments of Voice Conversion Challenge 2020 submissions.  
Proc. Joint workshop for the Blizzard Challenge and Voice Conversion Challenge 2020, pp. 99–120, 2020.
References: 3

More Related Content

What's hot

リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法
リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法
リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法Shinnosuke Takamichi
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響NU_I_TODALAB
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトNU_I_TODALAB
 
GAN-based statistical speech synthesis (in Japanese)
GAN-based statistical speech synthesis (in Japanese)GAN-based statistical speech synthesis (in Japanese)
GAN-based statistical speech synthesis (in Japanese)Yuki Saito
 
ICASSP 2019での音響信号処理分野の世界動向
ICASSP 2019での音響信号処理分野の世界動向ICASSP 2019での音響信号処理分野の世界動向
ICASSP 2019での音響信号処理分野の世界動向Yuma Koizumi
 
音情報処理における特徴表現
音情報処理における特徴表現音情報処理における特徴表現
音情報処理における特徴表現NU_I_TODALAB
 
Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討Shinnosuke Takamichi
 
深層学習を利用した音声強調
深層学習を利用した音声強調深層学習を利用した音声強調
深層学習を利用した音声強調Yuma Koizumi
 
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析Shinnosuke Takamichi
 
Neural text-to-speech and voice conversion
Neural text-to-speech and voice conversionNeural text-to-speech and voice conversion
Neural text-to-speech and voice conversionYuki Saito
 
音声合成のコーパスをつくろう
音声合成のコーパスをつくろう音声合成のコーパスをつくろう
音声合成のコーパスをつくろうShinnosuke Takamichi
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離NU_I_TODALAB
 
J-KAC:日本語オーディオブック・紙芝居朗読音声コーパス
J-KAC:日本語オーディオブック・紙芝居朗読音声コーパスJ-KAC:日本語オーディオブック・紙芝居朗読音声コーパス
J-KAC:日本語オーディオブック・紙芝居朗読音声コーパスShinnosuke Takamichi
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワークNU_I_TODALAB
 
JVS:フリーの日本語多数話者音声コーパス
JVS:フリーの日本語多数話者音声コーパス JVS:フリーの日本語多数話者音声コーパス
JVS:フリーの日本語多数話者音声コーパス Shinnosuke Takamichi
 
声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介Kentaro Tachibana
 
音声合成の今昔と深層学習を用いた音声合成
音声合成の今昔と深層学習を用いた音声合成音声合成の今昔と深層学習を用いた音声合成
音声合成の今昔と深層学習を用いた音声合成Genki Ishibashi
 
音源分離における音響モデリング(Acoustic modeling in audio source separation)
音源分離における音響モデリング(Acoustic modeling in audio source separation)音源分離における音響モデリング(Acoustic modeling in audio source separation)
音源分離における音響モデリング(Acoustic modeling in audio source separation)Daichi Kitamura
 
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパスJTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパスShinnosuke Takamichi
 

What's hot (20)

リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法
リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法
リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
 
GAN-based statistical speech synthesis (in Japanese)
GAN-based statistical speech synthesis (in Japanese)GAN-based statistical speech synthesis (in Japanese)
GAN-based statistical speech synthesis (in Japanese)
 
ICASSP 2019での音響信号処理分野の世界動向
ICASSP 2019での音響信号処理分野の世界動向ICASSP 2019での音響信号処理分野の世界動向
ICASSP 2019での音響信号処理分野の世界動向
 
音情報処理における特徴表現
音情報処理における特徴表現音情報処理における特徴表現
音情報処理における特徴表現
 
Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討Moment matching networkを用いた音声パラメータのランダム生成の検討
Moment matching networkを用いた音声パラメータのランダム生成の検討
 
深層学習を利用した音声強調
深層学習を利用した音声強調深層学習を利用した音声強調
深層学習を利用した音声強調
 
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
 
Neural text-to-speech and voice conversion
Neural text-to-speech and voice conversionNeural text-to-speech and voice conversion
Neural text-to-speech and voice conversion
 
音声合成のコーパスをつくろう
音声合成のコーパスをつくろう音声合成のコーパスをつくろう
音声合成のコーパスをつくろう
 
Kameoka2017 ieice03
Kameoka2017 ieice03Kameoka2017 ieice03
Kameoka2017 ieice03
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離
 
J-KAC:日本語オーディオブック・紙芝居朗読音声コーパス
J-KAC:日本語オーディオブック・紙芝居朗読音声コーパスJ-KAC:日本語オーディオブック・紙芝居朗読音声コーパス
J-KAC:日本語オーディオブック・紙芝居朗読音声コーパス
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク
 
JVS:フリーの日本語多数話者音声コーパス
JVS:フリーの日本語多数話者音声コーパス JVS:フリーの日本語多数話者音声コーパス
JVS:フリーの日本語多数話者音声コーパス
 
声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介
 
音声合成の今昔と深層学習を用いた音声合成
音声合成の今昔と深層学習を用いた音声合成音声合成の今昔と深層学習を用いた音声合成
音声合成の今昔と深層学習を用いた音声合成
 
音源分離における音響モデリング(Acoustic modeling in audio source separation)
音源分離における音響モデリング(Acoustic modeling in audio source separation)音源分離における音響モデリング(Acoustic modeling in audio source separation)
音源分離における音響モデリング(Acoustic modeling in audio source separation)
 
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパスJTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
 

More from NU_I_TODALAB

異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例NU_I_TODALAB
 
距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知NU_I_TODALAB
 
Interactive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionInteractive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionNU_I_TODALAB
 
Weakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionWeakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionNU_I_TODALAB
 
音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識NU_I_TODALAB
 
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法NU_I_TODALAB
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークNU_I_TODALAB
 
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法NU_I_TODALAB
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元NU_I_TODALAB
 
Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法NU_I_TODALAB
 
CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換NU_I_TODALAB
 
Missing Component Restoration for Masked Speech Signals based on Time-Domain ...
Missing Component Restoration for Masked Speech Signals based on Time-Domain ...Missing Component Restoration for Masked Speech Signals based on Time-Domain ...
Missing Component Restoration for Masked Speech Signals based on Time-Domain ...NU_I_TODALAB
 
喉頭摘出者のための歌唱支援を目指した電気音声変換法
喉頭摘出者のための歌唱支援を目指した電気音声変換法喉頭摘出者のための歌唱支援を目指した電気音声変換法
喉頭摘出者のための歌唱支援を目指した電気音声変換法NU_I_TODALAB
 
実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調
実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調
実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調NU_I_TODALAB
 
ケプストラム正則化NTFによるステレオチャネル楽曲音源分離
ケプストラム正則化NTFによるステレオチャネル楽曲音源分離ケプストラム正則化NTFによるステレオチャネル楽曲音源分離
ケプストラム正則化NTFによるステレオチャネル楽曲音源分離NU_I_TODALAB
 

More from NU_I_TODALAB (15)

異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例
 
距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知
 
Interactive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionInteractive voice conversion for augmented speech production
Interactive voice conversion for augmented speech production
 
Weakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionWeakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-Attention
 
音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識
 
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head Decoderネットワーク
 
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
 
Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法
 
CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換
 
Missing Component Restoration for Masked Speech Signals based on Time-Domain ...
Missing Component Restoration for Masked Speech Signals based on Time-Domain ...Missing Component Restoration for Masked Speech Signals based on Time-Domain ...
Missing Component Restoration for Masked Speech Signals based on Time-Domain ...
 
喉頭摘出者のための歌唱支援を目指した電気音声変換法
喉頭摘出者のための歌唱支援を目指した電気音声変換法喉頭摘出者のための歌唱支援を目指した電気音声変換法
喉頭摘出者のための歌唱支援を目指した電気音声変換法
 
実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調
実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調
実環境下におけるサイレント音声通話の実現に向けた雑音環境変動に頑健な非可聴つぶやき強調
 
ケプストラム正則化NTFによるステレオチャネル楽曲音源分離
ケプストラム正則化NTFによるステレオチャネル楽曲音源分離ケプストラム正則化NTFによるステレオチャネル楽曲音源分離
ケプストラム正則化NTFによるステレオチャネル楽曲音源分離
 

Recently uploaded

Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...
Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...
Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...Amil baba
 
Triangulation survey (Basic Mine Surveying)_MI10412MI.pptx
Triangulation survey (Basic Mine Surveying)_MI10412MI.pptxTriangulation survey (Basic Mine Surveying)_MI10412MI.pptx
Triangulation survey (Basic Mine Surveying)_MI10412MI.pptxRomil Mishra
 
Substation Automation SCADA and Gateway Solutions by BRH
Substation Automation SCADA and Gateway Solutions by BRHSubstation Automation SCADA and Gateway Solutions by BRH
Substation Automation SCADA and Gateway Solutions by BRHbirinder2
 
Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...
Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...
Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...shreenathji26
 
Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...
Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...
Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...Amil baba
 
priority interrupt computer organization
priority interrupt computer organizationpriority interrupt computer organization
priority interrupt computer organizationchnrketan
 
Structural Integrity Assessment Standards in Nigeria by Engr Nimot Muili
Structural Integrity Assessment Standards in Nigeria by Engr Nimot MuiliStructural Integrity Assessment Standards in Nigeria by Engr Nimot Muili
Structural Integrity Assessment Standards in Nigeria by Engr Nimot MuiliNimot Muili
 
STATE TRANSITION DIAGRAM in psoc subject
STATE TRANSITION DIAGRAM in psoc subjectSTATE TRANSITION DIAGRAM in psoc subject
STATE TRANSITION DIAGRAM in psoc subjectGayathriM270621
 
Turn leadership mistakes into a better future.pptx
Turn leadership mistakes into a better future.pptxTurn leadership mistakes into a better future.pptx
Turn leadership mistakes into a better future.pptxStephen Sitton
 
tourism-management-srs_compress-software-engineering.pdf
tourism-management-srs_compress-software-engineering.pdftourism-management-srs_compress-software-engineering.pdf
tourism-management-srs_compress-software-engineering.pdfchess188chess188
 
Immutable Image-Based Operating Systems - EW2024.pdf
Immutable Image-Based Operating Systems - EW2024.pdfImmutable Image-Based Operating Systems - EW2024.pdf
Immutable Image-Based Operating Systems - EW2024.pdfDrew Moseley
 
TEST CASE GENERATION GENERATION BLOCK BOX APPROACH
TEST CASE GENERATION GENERATION BLOCK BOX APPROACHTEST CASE GENERATION GENERATION BLOCK BOX APPROACH
TEST CASE GENERATION GENERATION BLOCK BOX APPROACHSneha Padhiar
 
multiple access in wireless communication
multiple access in wireless communicationmultiple access in wireless communication
multiple access in wireless communicationpanditadesh123
 
Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...
Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...
Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...arifengg7
 
Secure Key Crypto - Tech Paper JET Tech Labs
Secure Key Crypto - Tech Paper JET Tech LabsSecure Key Crypto - Tech Paper JET Tech Labs
Secure Key Crypto - Tech Paper JET Tech Labsamber724300
 
Detection&Tracking - Thermal imaging object detection and tracking
Detection&Tracking - Thermal imaging object detection and trackingDetection&Tracking - Thermal imaging object detection and tracking
Detection&Tracking - Thermal imaging object detection and trackinghadarpinhas1
 
Theory of Machine Notes / Lecture Material .pdf
Theory of Machine Notes / Lecture Material .pdfTheory of Machine Notes / Lecture Material .pdf
Theory of Machine Notes / Lecture Material .pdfShreyas Pandit
 
ADM100 Running Book for sap basis domain study
ADM100 Running Book for sap basis domain studyADM100 Running Book for sap basis domain study
ADM100 Running Book for sap basis domain studydhruvamdhruvil123
 
Gravity concentration_MI20612MI_________
Gravity concentration_MI20612MI_________Gravity concentration_MI20612MI_________
Gravity concentration_MI20612MI_________Romil Mishra
 
Indian Tradition, Culture & Societies.pdf
Indian Tradition, Culture & Societies.pdfIndian Tradition, Culture & Societies.pdf
Indian Tradition, Culture & Societies.pdfalokitpathak01
 

Recently uploaded (20)

Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...
Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...
Uk-NO1 Black Magic Specialist In Lahore Black magic In Pakistan Kala Ilam Exp...
 
Triangulation survey (Basic Mine Surveying)_MI10412MI.pptx
Triangulation survey (Basic Mine Surveying)_MI10412MI.pptxTriangulation survey (Basic Mine Surveying)_MI10412MI.pptx
Triangulation survey (Basic Mine Surveying)_MI10412MI.pptx
 
Substation Automation SCADA and Gateway Solutions by BRH
Substation Automation SCADA and Gateway Solutions by BRHSubstation Automation SCADA and Gateway Solutions by BRH
Substation Automation SCADA and Gateway Solutions by BRH
 
Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...
Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...
Introduction to Artificial Intelligence: Intelligent Agents, State Space Sear...
 
Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...
Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...
Uk-NO1 kala jadu karne wale ka contact number kala jadu karne wale baba kala ...
 
priority interrupt computer organization
priority interrupt computer organizationpriority interrupt computer organization
priority interrupt computer organization
 
Structural Integrity Assessment Standards in Nigeria by Engr Nimot Muili
Structural Integrity Assessment Standards in Nigeria by Engr Nimot MuiliStructural Integrity Assessment Standards in Nigeria by Engr Nimot Muili
Structural Integrity Assessment Standards in Nigeria by Engr Nimot Muili
 
STATE TRANSITION DIAGRAM in psoc subject
STATE TRANSITION DIAGRAM in psoc subjectSTATE TRANSITION DIAGRAM in psoc subject
STATE TRANSITION DIAGRAM in psoc subject
 
Turn leadership mistakes into a better future.pptx
Turn leadership mistakes into a better future.pptxTurn leadership mistakes into a better future.pptx
Turn leadership mistakes into a better future.pptx
 
tourism-management-srs_compress-software-engineering.pdf
tourism-management-srs_compress-software-engineering.pdftourism-management-srs_compress-software-engineering.pdf
tourism-management-srs_compress-software-engineering.pdf
 
Immutable Image-Based Operating Systems - EW2024.pdf
Immutable Image-Based Operating Systems - EW2024.pdfImmutable Image-Based Operating Systems - EW2024.pdf
Immutable Image-Based Operating Systems - EW2024.pdf
 
TEST CASE GENERATION GENERATION BLOCK BOX APPROACH
TEST CASE GENERATION GENERATION BLOCK BOX APPROACHTEST CASE GENERATION GENERATION BLOCK BOX APPROACH
TEST CASE GENERATION GENERATION BLOCK BOX APPROACH
 
multiple access in wireless communication
multiple access in wireless communicationmultiple access in wireless communication
multiple access in wireless communication
 
Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...
Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...
Analysis and Evaluation of Dal Lake Biomass for Conversion to Fuel/Green fert...
 
Secure Key Crypto - Tech Paper JET Tech Labs
Secure Key Crypto - Tech Paper JET Tech LabsSecure Key Crypto - Tech Paper JET Tech Labs
Secure Key Crypto - Tech Paper JET Tech Labs
 
Detection&Tracking - Thermal imaging object detection and tracking
Detection&Tracking - Thermal imaging object detection and trackingDetection&Tracking - Thermal imaging object detection and tracking
Detection&Tracking - Thermal imaging object detection and tracking
 
Theory of Machine Notes / Lecture Material .pdf
Theory of Machine Notes / Lecture Material .pdfTheory of Machine Notes / Lecture Material .pdf
Theory of Machine Notes / Lecture Material .pdf
 
ADM100 Running Book for sap basis domain study
ADM100 Running Book for sap basis domain studyADM100 Running Book for sap basis domain study
ADM100 Running Book for sap basis domain study
 
Gravity concentration_MI20612MI_________
Gravity concentration_MI20612MI_________Gravity concentration_MI20612MI_________
Gravity concentration_MI20612MI_________
 
Indian Tradition, Culture & Societies.pdf
Indian Tradition, Culture & Societies.pdfIndian Tradition, Culture & Societies.pdf
Indian Tradition, Culture & Societies.pdf
 

Recent progress on voice conversion: What is next?