Submit Search
Upload
深層学習(講談社)のまとめ 第5章
•
0 likes
•
789 views
O
okku apot
Follow
自分用のまとめです。内容等には一切の責任を持ちません。 ブログ↓ http://want-to-be-rikei.blogspot.jp
Read less
Read more
Technology
Report
Share
Report
Share
1 of 17
Download now
Download to read offline
Recommended
Back propagation
Back propagation
T2C_
Prml 4.3
Prml 4.3
Taikai Takeda
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
PRML Chapter 14
PRML Chapter 14
Masahito Ohue
Prml 4
Prml 4
Satoshi Kawamoto
W8PRML5.1-5.3
W8PRML5.1-5.3
Masahito Ohue
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
Recommended
Back propagation
Back propagation
T2C_
Prml 4.3
Prml 4.3
Taikai Takeda
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
PRML Chapter 14
PRML Chapter 14
Masahito Ohue
Prml 4
Prml 4
Satoshi Kawamoto
W8PRML5.1-5.3
W8PRML5.1-5.3
Masahito Ohue
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
禎晃 山崎
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
Variational autoencoder
Variational autoencoder
Mikio Shiga
レポート1
レポート1
YoshikazuHayashi3
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
sleipnir002
PRML4.3
PRML4.3
hiroki yamaoka
prml_titech_9.0-9.2
prml_titech_9.0-9.2
Taikai Takeda
深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2
Masayoshi Kondo
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
Toshiyuki Shimono
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
Kenta Ishii
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
okku apot
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章
okku apot
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章
okku apot
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
okku apot
深層学習(講談社)のまとめ 第3章
深層学習(講談社)のまとめ 第3章
okku apot
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
okku apot
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
More Related Content
Similar to 深層学習(講談社)のまとめ 第5章
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
禎晃 山崎
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
Variational autoencoder
Variational autoencoder
Mikio Shiga
レポート1
レポート1
YoshikazuHayashi3
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
sleipnir002
PRML4.3
PRML4.3
hiroki yamaoka
prml_titech_9.0-9.2
prml_titech_9.0-9.2
Taikai Takeda
深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2
Masayoshi Kondo
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
Toshiyuki Shimono
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
Kenta Ishii
Similar to 深層学習(講談社)のまとめ 第5章
(10)
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
深層学習 Day1レポート
深層学習 Day1レポート
Variational autoencoder
Variational autoencoder
レポート1
レポート1
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
PRML4.3
PRML4.3
prml_titech_9.0-9.2
prml_titech_9.0-9.2
深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
More from okku apot
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
okku apot
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章
okku apot
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章
okku apot
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
okku apot
深層学習(講談社)のまとめ 第3章
深層学習(講談社)のまとめ 第3章
okku apot
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
okku apot
More from okku apot
(6)
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第3章
深層学習(講談社)のまとめ 第3章
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
Recently uploaded
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
Recently uploaded
(9)
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
深層学習(講談社)のまとめ 第5章
1.
5. 自己符号化器
2.
5章概要 自己符号化器とは・・・ 入力層と出力層のユニット数が同じ、順伝搬型ネットワーク 入力層から中間層への伝播 = 符号化 中間層から出力層への伝播
= 復号化 として、「サンプルを符号化→復号化したものがサンプルと等しく」なるように 学習することで、データの特徴(=入力の別の「表現」)を得ることができる。 自己符号化器の機能を決めるのは活性化関数と中間層のユニット数である これを用いて、様々なことができる スパース正則化、白色化、ディープネットの事前学習
3.
・自己符号化器 5. 自己符号化器 𝑥1 𝑥2 𝑥3 𝑥4 𝒙 𝒚(𝒙)
𝒙�(𝒙) 入力層と出力層のユニット数が同じ、2層の 順伝播ネットワークを考える。中間層の出力は 出力層の出力は と表せる。また、ネットワーク全体でまとめると と表せる。この2層ネットワークの重みとバイアスを調整して、入力 x に対する 出力 𝒙� が元の入力に近づくように学習させることを考える。このとき、 𝒚 = 𝒇(𝑾𝑾 + 𝒃) を符号化(encode)、 𝒙� = 𝒇� (𝑾� 𝒚 + 𝒃�) を復号化(decode)と呼ぶ。 このようなネットワークを自己符号化器という。 𝒚 = 𝒇(𝑾𝑾 + 𝒃) 𝒙� = 𝒇� (𝑾� 𝒚 + 𝒃�) 𝒙� = 𝒇� (𝑾� 𝒇(𝑾𝑾 + 𝒃) + 𝒃�)
4.
・自己符号化器の設計 自己符号化器の活性化関数には中間層の 𝒇 と、出力層の𝒇�がある。一般に中間層 は任意の非線形関数、出力層には出力が入力データになるように入力データの 種類に応じて選ぶ。また、それに応じて𝒙と𝒙�の誤差関数も選ぶ。 ・𝒙
が実数値、制約なし→ 𝒇�:恒等写像、誤差関数は二乗誤差の総和 𝐸 𝐰 = � 𝒙 𝑛 − 𝒙�(𝒙 𝑛) 2 𝑁 𝑛=1 ・𝒙 が0と1の2値→ 𝒇�:ロジスティック関数、誤差関数は交差エントロピー 𝐸 𝐰 = � 𝐶(𝒙 𝑛, 𝒙� 𝑛) 𝑁 𝑛=1 ただし 𝐶 𝒙 𝑛, 𝒙� 𝑛 = − �[𝑥𝑖 𝑙𝑙𝑙𝑥�𝑖 𝒙 + 1 − 𝑥𝑖 log{1 − 𝑥�𝑖 𝒙 }] 𝐷 𝑖=1 5. 自己符号化器
5.
※中間層の重み𝑾と出力層の𝑾�は異なっても良いが、 𝑾� = 𝑾
𝑇 というように共通する場合もあり、重み共有の一種と呼ばれている。 ・自己符号化器の働き 誤差関数を最小化することで、パラメータ(重みとバイアス)を求める。 通常は中間層のパラメータを用い、これは(データの)特徴と呼ばれる。 自己符号化器は、学習を通して入力 x の別な「表現」 y を得ることが目的。 自己符号化器でどんな表現が学べるかは、主に活性化関数と中間層のユニット数 に依存する。 5. 自己符号化器
6.
最も単純な場合として、活性化関数が恒等写像をとるとする。ネットワークは 𝒙� = 𝑾�(𝑾𝑾
+ 𝒃) + 𝒃� と表せるがここで、中間層のユニット数が入力層より多い場合を考えると、 𝑾� ∙ 𝑾 = 𝑰, 𝒃 = 𝒃� = 𝟎 とすれば入力と出力は同じになり、誤差関数は常に0となってしまう。 そのため、活性化関数が線形関数の場合は中間層のユニット数は入力層より 少ない必要がある。 入力層の方が多い場合を考えると、これは訓練データの主成分分析(PCA)で 得られるものと同じになる。 5. 自己符号化器
7.
データの次元空間での広がりを,訓練サンプルの共分散行列 Φ = 1 𝑁 �(𝒙 𝑛−𝒙�)(𝒙
𝑛−𝒙�) 𝑇 𝑁 𝑛=1 の固有値・固有ベクトルによって捉え,表現したもの。データが偏って 存在する場合、Φの固有値の大きなものから順に選んだ固有ベクトルがその部分 空間を表す。ここで、固有値の降順に中間層のユニット数𝐷 𝑦分の固有ベクトル を行ベクトルとする行列を𝑼 𝐷 𝑦 、訓練サンプルの平均を𝒙�とするとこれらは min 𝒙�,𝑈 𝐷 𝑦 � 𝒙 𝑛 − 𝒙� − 𝑼 𝐷 𝑦 𝑇 𝑼 𝐷 𝑦 (𝒙 𝑛 − 𝒙�) 2 𝑁 𝑛=1 の最小化問題の解といえる。これは 𝑾 = 𝑼 𝐷 𝑦 , 𝒃 = −𝑼 𝐷 𝑦 𝒙� とすると自己符号化器と同じであることが分かる。 ・主成分分析(PCA) 5. 自己符号化器
8.
・スパース正則化 余分な自由度を持つ冗長な特徴でありながら入力データをうまく表現でき るような特徴を得る手法。これを過完備な表現と呼ぶ。 前述では、中間層のユニット数は入力層より少ない方が意味のある表現が 得られるとしたが、このスパース正則化の考えでは中間層のユニット数の 方が多い場合であっても、自己符号化器で意味のある表現を学習できるよ うになる。これを、スパース自己符号化器と呼ぶ。 スパース正則化は、個々の訓練サンプルをなるべく少ない数の中間層の ユニットを使って再現できるようにすることを目標としている。 つまり、なるべく少数のユニットが0でない出力値をとるように制約を 加えることになる。 5. 自己符号化器
9.
具体的には、元の誤差関数に以下のように正則化項を加える 𝐸� 𝐰 ≡
𝐸 𝐰 + 𝛽 � 𝐾𝐾 𝐷 𝑦 𝑗=1 (𝜌||𝜌�𝑗) ここで、𝜌�𝑗は中間層のユニットjの平均活性度の推定値であり、 𝜌�𝑗 = 1 𝑁 � 𝑦𝑗(𝒙 𝑛) 𝑁 𝑛=1 と求められる。𝜌はその目標値のパラメータである。KL (𝜌||𝜌�𝑗)は カルバック・ライブラー・ダイパージェンスと言い、2つの分布の類似度 を示す指標であり、今回の条件下では KL (𝜌| 𝜌�𝑗 = 𝜌 log 𝜌 𝜌�𝑗 + 1 − 𝜌 log( 1 − 𝜌 1 − 𝜌�𝑗 ) と表せる。ここで、𝜌に小さな値を設定し𝐸� 𝐰 を最小化するように学習 することで、平均活性度が小さくかつ誤差が小さくなるような𝐰を 求められる。𝛽は2つの目標のバランスをとるパラメータである。 5. 自己符号化器
10.
2つの分布の類似度を測る指標。相対エントロピーとも。 𝐾𝐾 𝑝 𝑥
𝑞 𝑥 = − � 𝑝 𝑥 log 𝑞(𝑥) 𝑝(𝑥) 𝑑𝑑 で表される。 性質として、以下が守られる 𝐾𝐾 𝑝 𝑥 𝑞 𝑥 ≥ 0 𝐾𝐾 𝑝 𝑥 𝑞 𝑥 = 0は、p=qの時のみ成り立つ また、「距離」という概念ではないため一般に 𝐾𝐾 𝑝 𝑞 ≠ 𝐾𝐾(q|p) である。 ※今回では中間層のユニットが0,1のみの出力で、確率pで1、1−pで0と なる条件で考えている ・カルバック・ライブラー・ダイバージェンス 5. 自己符号化器
11.
・スパース自己符号化器の学習 逆伝播計算を行うが、活性度は下の層のパラメータに依存するので、デルタを 改める必要がある。新しいデルタは以下の式で表せる 𝛿𝑗 (𝑙) = � 𝛿
𝑘 (𝑙+1) 𝑤 𝑘𝑘 (𝑙+1) + 𝛽(− 𝜌 𝜌�𝑗 + 1 − 𝜌 1 − 𝜌�𝑗 ) 𝑘 𝑓𝑓 𝑢𝑗 (𝑙) また、平均活性度は全サンプルについての平均であるが、ミニバッチを使う場合 平均活性度の計算のためだけに全サンプルの順伝播計算を行うのは非効率なので、 以下の式で近似値を得る 𝜌�𝑗 (𝑡) = 𝜆𝜌�𝑗 (𝑡−1) + (1 − 𝜆)𝜌�𝑗 𝜌�𝑗 (𝑡−1) は前ミニバッチで使用したユニットjの平均活性度、𝜌�𝑗は現在の ミニバッチだけで新たに計算した平均活性度、λは平均の重み 5. 自己符号化器
12.
訓練データの偏りを除去し、学習を行いやすくする処理。正規化より高度なもの。 白色化では、訓練サンプルの成分間の相関を無くすのが目的である。 ここで、各サンプルからその平均を引いたサンプル𝒙1, 𝒙2, …
, 𝒙 𝑁を考えると、 成分間の相関は共分散行列 Φ 𝑋 = 1 𝑁 � 𝒙 𝑛 𝒙 𝑛 𝑇 𝑁 𝑛=1 = 1 𝑁 𝑿𝑿 𝑇 で表せる。ここで、この共分散行列が対角行列であれば分布の広がりは各軸で 独立であり、成分間の相関をなくせると考えられる。 そこで、各サンプルにD×D行列Pの線形変換を 𝒖 𝑛 = 𝑷𝒙 𝑛 と施す。 ・白色化 5. 自己符号化器
13.
この変換後の共分散行列 Φ 𝑈 = 1 𝑁 �
𝒖 𝑛 𝒖 𝑛 𝑇 𝑁 𝑛=1 = 1 𝑁 𝑼𝑼 𝑇 を対角行列になるようにPを定める。ここで、Φ 𝑈が単位行列になるとすると 𝑷𝑷 𝑇 = Φ 𝑋 −1 を満たすPを求めることになる。ここで、固有ベクトルの定義からΦ 𝑋は Φ 𝑋 = 𝑬𝑬𝑬 𝑇 と分解できる。よって、Φ 𝑋 −1 は Φ 𝑋 −1 = 𝑬𝑫−1 𝑬 𝑇 と表せる。このとき、Pは 𝑷 = 𝑸𝑫− 1 2 𝑬 𝑇 と変換できる。ただし、 𝑸は𝑷と同じサイズの任意の直行行列である 5. 自己符号化器
14.
𝑸の任意性によってPは無数に存在する。 1.𝑸 = 𝑰のとき 共有分散行列の固有ベクトルを利用することから主成分分析に似ているため、 PCA白色化と呼ぶ。 2.𝑸
= 𝑬のとき Pを対称行列に制限することから、ゼロ位相白色化(ZCA白色化)と呼ぶ。 また、白色化の際に特定の成分の分散がとても小さいことがあり、その時𝑫− 1 2を 計算しやすいように、そのようなデータでは 𝑷 = 𝑸 𝑫 + 𝜀𝑰 − 1 2 𝑬 𝑇 とする。 5. 自己符号化器
15.
・自己符号化器の活用:ディープネットの事前学習 自己符号化器の活用の一つとして、ディープネットの事前学習があげられる。 前述のように、多層の順伝播型ネットワークは勾配消失問題があることで学 習が難しいとされているが、学習開始時の重みをランダムに初期化するので はなく、自己符号化器を用いて事前に適切な値を決めることで学習の問題を 回避するという手法がある。 具体的に、以下のような深層ネットワークを考える 𝑾(3) 𝑾(2) 𝑾(4) 5. 自己符号化器
16.
深層ネットワークを単層ネットワークに切り分け、それぞれを自己符号化器と して学習する。実際には、訓練データ 𝑥 𝑛
に対して𝑾(2)を学習し、学習後 訓練データを入力し出力層の表現 𝒛 𝑛 (2) を得る。それによって𝑾(3)を学習する。 これを繰り返し、事前学習を行う。このように単層ネットワークの自己符号化 器を積み重ねたものを積層自己符号化器と呼ぶ。 𝑾(3) 𝑾(2) 𝑾(4) 𝒛 𝑛 (2) 𝒛 𝑛 (3) 𝒛 𝑛 (4) 5. 自己符号化器
17.
・その他の自己符号化器 ・多層自己符号化器 これまでの自己符号化器とは異なり、多層化したもの。順伝播型 ネットワークと同様に、多層化すると学習は困難である。 ・デノイジング自己符号化器 学習に確率的な要素を取り入れ,結果的にRBM並の性能を持たせたもの。 具体的には、訓練サンプルを確率的に変化させたものを入力とする。 例えば、平均0、分散𝜎2 のガウス分布に従うランダムノイズ 𝛿𝑥 ~ 𝑁(0,
𝜎2 𝑰) を加えることを考える。これにより、元の入力を再現できるだけでなく、 ノイズを除去できる機能が期待できる。訓練データに事前知識がある 場合、それに合わせたノイズを加えるとより効果的。 5. 自己符号化器
Download now