Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
OA
Uploaded by
okku apot
1,028 views
深層学習(講談社)のまとめ 第7章
自分用のまとめです。内容等には一切の責任を持ちません。 ブログ↓ http://want-to-be-rikei.blogspot.jp
Technology
◦
Read more
1
Save
Share
Embed
Embed presentation
Download
Downloaded 29 times
1
/ 16
2
/ 16
3
/ 16
4
/ 16
5
/ 16
6
/ 16
7
/ 16
8
/ 16
9
/ 16
10
/ 16
11
/ 16
12
/ 16
13
/ 16
14
/ 16
15
/ 16
16
/ 16
More Related Content
PPTX
Recurrent Neural Network
by
KozoChikai
PDF
論文紹介 Amortized bayesian meta learning
by
Xiangze
PPTX
Learning sparse neural networks through L0 regularization
by
周平 合田
PDF
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
by
Takanori Nakai
PDF
銀行の融資業務における人工知能を利用したデータマイニング活用例
by
IBM Analytics Japan
PDF
Chap.7 pp.553~556
by
hiroya ikeda
PDF
Mxnetによるデープラーニングでセミの抜け殻を識別する
by
dokechin
PPTX
Sentence-State LSTM for Text Representation
by
Takanori Nakai
Recurrent Neural Network
by
KozoChikai
論文紹介 Amortized bayesian meta learning
by
Xiangze
Learning sparse neural networks through L0 regularization
by
周平 合田
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
by
Takanori Nakai
銀行の融資業務における人工知能を利用したデータマイニング活用例
by
IBM Analytics Japan
Chap.7 pp.553~556
by
hiroya ikeda
Mxnetによるデープラーニングでセミの抜け殻を識別する
by
dokechin
Sentence-State LSTM for Text Representation
by
Takanori Nakai
Similar to 深層学習(講談社)のまとめ 第7章
PDF
LSTM (Long short-term memory) 概要
by
Kenji Urai
PPTX
Paper: seq2seq 20190320
by
Yusuke Fujimoto
PDF
04_深層学習(day3, day4)
by
CHIHIROGO
PDF
RNN-based Translation Models (Japanese)
by
NAIST Machine Translation Study Group
PDF
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
by
Shotaro Sano
PDF
Deep Learning
by
Masayoshi Kondo
PPTX
Long short-term memory (LSTM)
by
Kenta Ishii
PDF
Lstm shannonlab
by
Shannon Lab
PPTX
深層学習による自然言語処理 第2章 ニューラルネットの基礎
by
Shion Honda
PDF
Rnn+lstmを理解する
by
Arata Honda
PPTX
Tf勉強会(5)
by
tak9029
PPTX
ラビットチャレンジレポート 深層学習Day3
by
HiroyukiTerada4
PDF
深層学習レポートDay3(小川成)
by
ssuser441cb9
DOCX
レポート深層学習Day3
by
ssuser9d95b3
PPTX
RNNで頑張ろう
by
理玖 川崎
PDF
ニューラルネットワーク勉強会5
by
yhide
PPTX
レトリバ勉強会資料:深層学習による自然言語処理2章
by
Hiroki Iida
PDF
Study aiラビットチャレンジ 深層学習Day3
by
Naoki Nishikawa
PPTX
ラビットチャレンジレポート 深層学習Day3
by
ssuserf4860b
PDF
Rnncamp2handout
by
Shin Asakawa
LSTM (Long short-term memory) 概要
by
Kenji Urai
Paper: seq2seq 20190320
by
Yusuke Fujimoto
04_深層学習(day3, day4)
by
CHIHIROGO
RNN-based Translation Models (Japanese)
by
NAIST Machine Translation Study Group
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
by
Shotaro Sano
Deep Learning
by
Masayoshi Kondo
Long short-term memory (LSTM)
by
Kenta Ishii
Lstm shannonlab
by
Shannon Lab
深層学習による自然言語処理 第2章 ニューラルネットの基礎
by
Shion Honda
Rnn+lstmを理解する
by
Arata Honda
Tf勉強会(5)
by
tak9029
ラビットチャレンジレポート 深層学習Day3
by
HiroyukiTerada4
深層学習レポートDay3(小川成)
by
ssuser441cb9
レポート深層学習Day3
by
ssuser9d95b3
RNNで頑張ろう
by
理玖 川崎
ニューラルネットワーク勉強会5
by
yhide
レトリバ勉強会資料:深層学習による自然言語処理2章
by
Hiroki Iida
Study aiラビットチャレンジ 深層学習Day3
by
Naoki Nishikawa
ラビットチャレンジレポート 深層学習Day3
by
ssuserf4860b
Rnncamp2handout
by
Shin Asakawa
More from okku apot
PDF
深層学習(講談社)のまとめ(1章~2章)
by
okku apot
PDF
深層学習(講談社)のまとめ 第6章
by
okku apot
PDF
深層学習(講談社)のまとめ 第5章
by
okku apot
PDF
深層学習(講談社)のまとめ 第4章
by
okku apot
PDF
深層学習(講談社)のまとめ 第8章
by
okku apot
PDF
深層学習(講談社)のまとめ 第3章
by
okku apot
深層学習(講談社)のまとめ(1章~2章)
by
okku apot
深層学習(講談社)のまとめ 第6章
by
okku apot
深層学習(講談社)のまとめ 第5章
by
okku apot
深層学習(講談社)のまとめ 第4章
by
okku apot
深層学習(講談社)のまとめ 第8章
by
okku apot
深層学習(講談社)のまとめ 第3章
by
okku apot
Recently uploaded
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
PDF
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
PDF
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
PDF
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
PDF
Drupal Recipes 解説 .
by
iPride Co., Ltd.
PPTX
ddevについて .
by
iPride Co., Ltd.
PDF
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
PDF
さくらインターネットの今 法林リージョン:さくらのAIとか GPUとかイベントとか 〜2026年もバク進します!〜
by
法林浩之
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
Drupal Recipes 解説 .
by
iPride Co., Ltd.
ddevについて .
by
iPride Co., Ltd.
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
さくらインターネットの今 法林リージョン:さくらのAIとか GPUとかイベントとか 〜2026年もバク進します!〜
by
法林浩之
深層学習(講談社)のまとめ 第7章
1.
7. 再帰型ニューラルネット
2.
7章概要 ⾳声やテキストなどの系列データを扱えることで、データ間の依存関係(⽂脈) を学習できるネットワーク、再帰型ニューラルネットワークを考える。 RNNは内部に有向(閉路)をもつネットワークで、情報を⼀時的に保管できる。 この中間層のユニットをLSTMと呼ばれるユニットに置き換えることで、さらなる 機能向上を図ることができる。LSTMは⼊⼒・出⼒・忘却ゲートをもつ機構。 また、⼊⼒と出⼒で系列⻑が違う場合は隠れマルコフモデルやコネクショニスト 分類法などの⼿法によって分類を⾏う。
3.
7. 再帰型ニューラルネット 系列データとは、個々の要素が順序付きの集まり 𝒙", 𝒙$,
𝒙%, ⋯ , 𝒙' として与えられるデータ。⾳声やテキストなど。系列の⻑さTは⼀般に可変。 ⼀般に、系列データを扱う問題の多くは事前に⼊⼒されたデータ間の 依存関係(⽂脈)を学習することで解決を⾏う。系列データを扱う問題の例として、 ⽂章が途中まで与えられたときに次の単語を予測する問題や、発話を記録した ⾳声信号から話者が発した⾳素を推定する問題などがあげられる。 学習には再帰型ニューラルネット(Recurrent Neural Network)を⽤いる。 また、RNNは単語間の依存関係を学習し単語の予測をする問題では⾔語モデルとも 呼ばれている。 ・系列データ
4.
7. 再帰型ニューラルネット ・再帰型ニューラルネットワーク(RNN) RNNは内部に(有向)閉路をもつニューラルネットの総称で、この構造によって 情報を⼀時的に記憶し、振る舞いを動的に変化させることを可能にしている。 ここで、中間層のユニットの出⼒が⾃分⾃⾝に戻される「帰還路」をもつシンプル なRNNを考える。 i j k W 𝑾)*+𝑾,- ⼊, 𝑥, + 中/ 𝑢/ + 出1 𝑦1 + 𝑧/ + 𝑣1 +
5.
7. 再帰型ニューラルネット RNNの出⼒層、誤差関数は順伝播型と同様に設計される。そのため、誤差関数は 𝐸 𝒘
= − 9 9 9 𝑑-1 + 𝑙𝑜𝑔𝑦1 + (𝒙-; 𝒘) 1+- と⽰される。ここで、はn番⽬のサンプルの時刻tでの⽬標出⼒である。 また、系列の⻑さはサンプルごとに違っていても構わない。 系列データの全体が⼀括して与えられる際、その系列データを逆向きにRNNに ⼊⼒することも出来る。このように逆向きの⼊⼒をとるRNNと順向きの⼊⼒を とるRNNの出⼒層を統合したものを双⽅向性RNNといい、順向きだけのRNNより 性能がいいと⾔われている。
6.
7. 再帰型ニューラルネット また、各⼊出⼒は以下の式で表せる 𝑢/ + = 9
𝑤/, (,-) 𝑥, + , + 9 𝑤//D 𝑧/D +E" /D 𝑧/ + = 𝑓 𝑢/ + 𝑣1 + = 9 𝑤1/ ()*+) 𝑧/ + / 𝑦1 + = 𝑓()*+)(𝑣1 + ) このとき、バイアスは常に1を出⼒する特別なユニットを1つ下の層に⽤意し、 これと各ユニットとの結合重みをバイアスとする⼿法をとる。 また、重みは時刻tに関係なく、順伝播計算中は定数である。
7.
7. 再帰型ニューラルネット ・RNNの逆伝播計算 学習には順伝播型と同様に確率的勾配降下法が使われる。誤差の微分を計算する ⽅法として主にメモリ効率の良いRTRL法と計算速度の速くシンプルなBPTT法の 2つが知られている。ここでは、BPTT法について解説する。 BPTT法ではRNNを以下の図のように時間⽅向に展開することで順伝播型ネットと することで誤差逆伝播計算を⾏う。 𝑥G 𝑧G 𝑦G W 𝑾)*+ 𝑾,- 𝑥" 𝑧" 𝑦" W 𝑾)*+ 𝑾,- 𝑥$ 𝑧$ 𝑦$ W 𝑾)*+ 𝑾,- 𝑥% 𝑧% 𝑦% 𝑾)*+ 𝑾,- ・・・ 𝑥+ 𝑧G 𝑦+ W 𝑾)*+ 𝑾,-
8.
7. 再帰型ニューラルネット 通常の順伝播型ネットワークでの第𝑙 +
1層から第𝑙層へのデルタは 𝛿/ (J) = 9 𝑤1/ (JK") 𝛿1 (JK") 𝑓L(𝑢/ (J) ) 1 で表される。(fは問題に即した活性化関数)RNNに適⽤するために 時刻tの出⼒層のユニットkにおけるデルタを 𝛿1 )*+,+ ≡ 𝜕𝐸 𝜕𝑣1 + と表し、中間層のユニットjにおけるデルタを 𝛿/ + ≡ 𝜕𝐸 𝜕𝑢/ + と表すことで、中間層のユニットjのデルタは 𝛿/ + = 9 𝑤1/ )*+ 𝛿1 )*+,+ 1 + 9 𝑤/D/ 𝛿/D +K" /D 𝑓L(𝑢/ + ) と計算できる。これをTから1つずつtを⼩さくしながら繰り返し計算することで 各時刻におけるデルタを計算することができる。 ただし、𝑡 = 𝑇 + 1におけるデルタはまだ計算できないため、0とする。
9.
7. 再帰型ニューラルネット また、出⼒層のデルタ𝛿1 )*+,+ は、順伝播時に求めた出⼒𝑦Gと⽬標出⼒𝑑Gから 誤差関数により計算される。 これにより、誤差Eの各層の重みによる微分は次のように計算される。 𝜕𝐸 𝜕𝑤/, ,- = 9 𝜕𝐸 𝜕𝑢/ + 𝜕𝑢/ + 𝜕𝑤/, ,- ' +Q" =
9 𝛿/ + 𝑥, + ' +Q" 𝜕𝐸 𝜕𝑤//D = 9 𝜕𝐸 𝜕𝑢/ + 𝜕𝑢/ + 𝜕𝑤//D ' +Q" = 9 𝛿/ + 𝑧/ +E" ' +Q" 𝜕𝐸 𝜕𝑤1/ )*+ = 9 𝜕𝐸 𝜕𝑣1 + 𝜕𝑣1 + 𝜕𝑤1/ )*+ ' +Q" = 9 𝛿/ + 𝑧/ + ' +Q"
10.
7. 再帰型ニューラルネット ・⻑、短期記憶(LSTM) 系列データの⽂脈を捉えて推定を⾏う際、どれだけ現時刻から遠い過去の⼊⼒を 出⼒に反映できるかは重要な問題である。理論上は過去の全⼊⼒が反映される はずだが、実際には10時刻分程度だと⾔われている。これは、逆伝播計算時に 深い層を扱うために勾配消失問題と同じ原因で⽣じており、⾔い換えると 基本的なRNNでは短期的な記憶しか実現できないと⾔える。 そこで⻑期にわたる記憶を実現するために提案されたのが ⻑・短期記憶(Long Short-Term
Memory)である。LSTMでは、基本的なRNNの 中間層の各ユニットをメモリユニットと呼ぶ要素で置き換えた構造を持つ。
11.
7. 再帰型ニューラルネット メモリユニットは左図のようなメモリセルa とその他5つのユニットで構成される。 メモリセルaは状態𝑠/ + を保持し、これを 1時刻隔ててメモリセル⾃⾝に帰還する ことで記憶を実現している。 ユニットc,d,fの出⼒が0〜1のゲートの値を ⽰しており、各ゲートではゲートの値と状 態が掛けられている。 ユニットbでは外部からの⼊⼒を受け取り、 ⼊⼒ゲートを経てメモリセルへ伝えられる。 ユニットeではメモリセルからの⼊⼒を受け 取り、出⼒ゲートを経て外部へ出⼒する。
12.
7. 再帰型ニューラルネット ゲートを経るときにゲートの値が1に近ければ状態がそのまま伝達され、0に近ければ リセットされる。そのために、ゲートの値の計算に⽤いる活性化関数はロジスティック シグモイド関数が⽤いられる。上記の機構を式で表すと、メモリセルは 𝑠/ + = 𝑔/ S,+ 𝑠/ +E" +
𝑔/ T,+ 𝑓(𝑢/ + ) と表される。第2項は元のRNNと同様に 𝑢/ + = 9 𝑤/, (,-) 𝑥, + , + 9 𝑤//D 𝑧/D +E" /D として受け取る。また、各ゲートの値は以下のように⽰される。 𝑔/ S,+ = 𝑓 𝑢/ S,+ = 𝑓 9 𝑤/, S,,- 𝑥, + , + 9 𝑤//D S 𝑧/D +E" /D + 𝑤/ S 𝑠/ +E" 𝑔/ T,+ = 𝑓 𝑢/ T,+ = 𝑓 9 𝑤/, T,,- 𝑥, + , + 9 𝑤//D T 𝑧/D +E" /D + 𝑤/ T 𝑠/ +E" 𝑔/ U,+ = 𝑓 𝑢/ U,+ = 𝑓 9 𝑤/, U,,- 𝑥, + , + 9 𝑤//D U 𝑧/D +E" /D + 𝑤/ U 𝑠/ +E"
13.
7. 再帰型ニューラルネット LSTMも普通のRNNと同様に勾配降下法による学習が可能。また、勾配計算も 同様に誤差逆伝播法により⾏う。各ユニットのデルタは以下。 𝜖/ + = 9
𝑤1/ )*+ 𝛿1 )*+,+ 1 + 9 𝑤/D/ 𝛿/L +K" /L 𝑎: 𝛿/ YZJJ,+ = 𝛿[/ + + 𝑔/ S,+K" 𝛿/ YZJJ,+K" + 𝑤/ S 𝛿/ T,+K" + 𝑤/ T 𝛿/ S,+K" + 𝑤/ U 𝛿/ U,+ 𝑏: 𝛿/ + = 𝑔/ T,+ 𝑓L 𝑢/ + 𝛿/ YZJJ,+K" 𝑐: 𝛿/ T,+ = 𝑓L 𝑢/ T,+ 𝑓(𝑢/ + )𝛿/ YZJJ,+ 𝑑: 𝛿/ U,+ = 𝑓L 𝑢/ U,+ 𝑓 𝑠/ + 𝜖/ + 𝑒: 𝛿[/ + = 𝑔/ S,+K" 𝑓L 𝑠/ + 𝜖/ + 𝑓: 𝛿/ S,+ = 𝑓L 𝑢/ S,+ 𝑠/ +E" 𝛿/ YZJJ,+ ・LSTMの逆伝播計算
14.
7. 再帰型ニューラルネット RNNでは各時刻につき1つの⼊⼒をとり1つの出⼒を返すが、この動作は ⼊⼒系列と異なる⻑さの系列を推定する場合に適していない。 そこで選ばれる⽅法として主に隠れマルコフモデル(Hidden Markov
Model)と コネクショニスト時系列分類法(ConnectionistTemporal Classification)の2つが ある。 HMMでは内部状態を隠れ変数として持ち、これが時刻とともに確率的に変化 するマルコフモデルである。この観測を時間順に並べたものを系列データとして 考える。各内部状態と観測された特徴量の関係を混合正規分布モデルなどで表現 し、訓練データを⽤いてパラメータを決定する。 ・⼊出⼒間で系列⻑が違う時 ・隠れマルコフモデル
15.
7. 再帰型ニューラルネット ⼊出⼒で系列⻑の違う場合の分類をHMMを⽤いずにニューラルネットだけで解 決しようとするのがCTC法である。認識対象となるラベルに「空⽩」を表すラベ ルを加えた集合L‘を考える。ここで、真のラベル系列Iを考えると、この系列の冗 ⻑な表現は無限にある。このような冗⻑な系列πとその元になる系列lとは 𝐼 =
𝐵(𝜋) の関係で⽰される。また、1つのラベル系列に対してこれを与える冗⻑な系列の 集合を𝐵E" 𝐼 = {𝜋|𝐵 𝜋 = 1}と書き、この集合の要素をIに対するパスと呼ぶ。 CTCで⽤いるRNNは出⼒層が 𝐿′ 個のユニットからなり、活性化関数はソフトマッ クスである。ここで、⼊⼒系列Xに対して1つのパスが正解である確率は 𝑝 𝜋 𝑋 = i 𝑦jk + ' +Q" と表せる。 ・コネクショニスト時系列分類法(CTC)
16.
7. 再帰型ニューラルネット CTCでは、以下の式を最⼤にするIを推定する系列とする。 𝑝 𝐼
𝑋 = 9 𝑝 𝜋 𝑋 j∈mno T しかし、実際には計算量が膨⼤になるために前進、後退法と呼ばれる⼿法を ⽤いて効率化を図る ※詳細は→https://www.slideshare.net/mobile/shuheisowa/ss-71447076
Download